JP2000090087A - Interpreter and record medium recording program for effectively presenting function of interpreter - Google Patents

Interpreter and record medium recording program for effectively presenting function of interpreter

Info

Publication number
JP2000090087A
JP2000090087A JP10254361A JP25436198A JP2000090087A JP 2000090087 A JP2000090087 A JP 2000090087A JP 10254361 A JP10254361 A JP 10254361A JP 25436198 A JP25436198 A JP 25436198A JP 2000090087 A JP2000090087 A JP 2000090087A
Authority
JP
Japan
Prior art keywords
sentence
response sentence
language
response
question
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10254361A
Other languages
Japanese (ja)
Other versions
JP3993319B2 (en
Inventor
Mutsumi Kawagoe
睦 川越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP25436198A priority Critical patent/JP3993319B2/en
Publication of JP2000090087A publication Critical patent/JP2000090087A/en
Application granted granted Critical
Publication of JP3993319B2 publication Critical patent/JP3993319B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an interpreter capable of smooth conversation between a user, who comprehends a first language, and a speaking party who comprehends a second language. SOLUTION: Concerning this interpreter, a question sentence translation data base 101 stores question sentences in the first language and translated question sentences in the second language while pairing them. Corresponding to the input of a question sentence from an input operating part 103 of the user, a question sentence selecting part 104 selects any question sentence out of the question sentence translation data base 101. A voice output part 106 outputs the paired translated question sentence. A response sentence data base 102 stores plural response sentences in the second language corresponding to the translated question sentences and translated response sentences in the first language while pairing them. A voice response from the speaking party is received by a voice input part 109 and a voice recognizing part 110 recognizes the response in voice as a character response sentence. A response sentence extracting part 107 retrieves the response sentence similar to the character response sentence from the response sentence data base 102 and clearly displays the difference of character response sentence and similar response sentence on a display part 105.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、第1言語と第2言
語との間での会話を通訳する通訳装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an interpreter for translating conversation between a first language and a second language.

【0002】[0002]

【従来の技術】従来の携帯型の通訳装置では、ユーザが
使用場面に応じて分類されたメニューの選択やキーワー
ドの入力をして第1言語の単語又は一文(質問文)を選
択すると、その選択された単語又は一文に対応する第2
言語の単語又は一文(質問文)が表示される方式が主に
採用されている。
2. Description of the Related Art In a conventional portable interpreter, when a user selects a menu or a keyword which is classified according to a use scene and selects a word or one sentence (question sentence) in a first language, the user is prompted to enter the menu. The second corresponding to the selected word or sentence
A method in which a word or a sentence (a question sentence) of a language is displayed is mainly adopted.

【0003】ユーザが会話相手から返事を得るために、
例えば特開平7−105220号公報の技術では、上記
の第2言語の質問文の表示を会話相手に提示する際に、
第2言語の応答文を数種類表示するようにして、それら
の応答文うちの一文を会話相手に選択させる方式が示さ
れている。
In order for a user to get a reply from a conversation partner,
For example, in the technology disclosed in Japanese Patent Application Laid-Open No. H7-105220, when displaying the above-described question text in the second language to a conversation partner,
A method is shown in which several types of response sentences in the second language are displayed, and one of the response sentences is selected by a conversation partner.

【0004】また、特開平9−319750号公報の技
術では、会話相手の応答を想定し、応答を階層的に分類
して選択を容易にしたり、また数字や記号を直接入力さ
せて相手からの応答を得る方式が示されている。
In the technique disclosed in Japanese Patent Application Laid-Open No. 9-319750, responses from conversation partners are assumed, responses are classified hierarchically to facilitate selection, and numerals or symbols are directly input to allow the communication from the other party. The manner in which the response is obtained is shown.

【0005】[0005]

【発明が解決しようとする課題】ところが、上記した2
つの技術では、ユーザが会話相手から応答文を得るため
に、会話相手に通訳装置の使用方法を教えて、装置の操
作を任せなければならず、通訳装置の操作に不慣れな相
手とは、スムーズな会話が困難である。
However, the above-mentioned 2
In one technique, in order to obtain a response sentence from a conversation partner, the user has to teach the conversation partner how to use the interpreter and leave the operation of the device to the other party. Difficult conversation.

【0006】本発明は、上記課題に鑑み、会話相手が通
訳装置の取扱いに習熟していることを必要としない操作
性の優れた通訳装置を提供することを目的とする。
SUMMARY OF THE INVENTION In view of the above problems, an object of the present invention is to provide an interpreter having excellent operability, which does not require a conversation partner to be proficient in handling the interpreter.

【0007】[0007]

【課題を解決するための手段】上記課題を解決するため
本発明は、第1言語の質問文とそれを翻訳した第2言語
の質問文とを対にして記憶している質問文データベース
と、第2言語の質問文に応答する標準的な複数の第2言
語の応答文と、それらを翻訳した第1言語の応答文とを
記憶している応答文データベースと、入力操作手段と、
音声入力手段と、前記入力操作手段でユーザから入力さ
れた第1言語の質問文を前記質問文データベースを検索
し、それと対になっている第2言語の質問文を抽出する
質問文抽出手段と、抽出された第2言語の質問文の出力
を受けてユーザの会話相手が第2言語の応答文を音声で
入力した場合に、入力された音声を第2言語の文字応答
文として認識する音声認識手段と、前記音声認識手段で
認識された文字応答文に類似する第2言語の応答文と対
応する第1言語の応答文とを前記応答文データベースか
ら抽出する応答文抽出手段と、前記応答文抽出手段で抽
出された第2言語の応答文と第1言語の応答文と前記音
声認識手段で認識された文字応答文とを表示する表示手
段とを備えることとしている。
In order to solve the above-mentioned problems, the present invention provides a question sentence database storing a pair of a question sentence in a first language and a question sentence in a second language translated from the first sentence. A response sentence database storing a plurality of standard second language response sentences responding to the second language question sentence, and a first language response sentence translated therefrom; input operation means;
Voice input means, and question sentence extraction means for searching the question sentence database for the first language question sentence input by the user with the input operation means and extracting a paired second language question sentence therefrom; And a voice for recognizing the input voice as a text response in the second language when the user's conversation partner inputs the voice in the second language in response to the output of the extracted question in the second language. Recognizing means; response sentence extracting means for extracting a response sentence in a first language corresponding to a response sentence in a second language similar to the character response sentence recognized by the voice recognition means from the response sentence database; Display means for displaying a response sentence in the second language, a response sentence in the first language, and a character response sentence recognized by the voice recognition means, extracted by the sentence extraction means.

【0008】[0008]

【発明の実施の形態】以下、本発明に係る通信装置の実
施の形態について、図面を用いて説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the communication device according to the present invention will be described below with reference to the drawings.

【0009】(実施の形態1)図1は、本発明に係る通
訳装置の実施の形態1の構成図である。
(Embodiment 1) FIG. 1 is a configuration diagram of an interpreter according to Embodiment 1 of the present invention.

【0010】この通訳装置は、質問文翻訳データベース
101と、応答文データベース102と、入力操作部1
03と、質問文選択部104と、表示部105と、音声
出力部106と、応答文抽出部107と、音声認識辞書
108と、音声入力部109と、音声認識部110とを
備えている。
This interpreting apparatus includes a question sentence translation database 101, a response sentence database 102, an input operation unit 1
03, a question sentence selection unit 104, a display unit 105, a speech output unit 106, a response sentence extraction unit 107, a speech recognition dictionary 108, a speech input unit 109, and a speech recognition unit 110.

【0011】質問文翻訳データベース101は、ROM
等からなり、第1言語の質問文とそれを第2言語に翻訳
した第2言語の質問文とを一対にして識別番号を付して
記憶している。図2は、この質問文翻訳データベース1
01の内容の一例を示している。この質問文翻訳データ
ベース101では、第1言語を日本語とし、第2言語を
英語としている。なお、本実施の形態では、この通訳装
置を利用するユーザが日本語を解し、会話相手が英語を
解する状況で用いられるものである。
The question translation database 101 is a ROM
The first sentence and the second language question sentence translated into the second language are stored as a pair with an identification number. FIG. 2 shows this question sentence translation database 1
01 shows an example of the content. In the question sentence translation database 101, the first language is Japanese and the second language is English. In this embodiment, the interpreter is used in a situation where a user who uses the interpreter understands Japanese and a conversation partner understands English.

【0012】質問文翻訳データベース101の識別番号
「0002」には、日本語の質問文「空港へはどのくら
い時間がかかりますか」と英語に翻訳された「How long
does it take to the airport?」とが対にして記憶さ
れている。更に、この質問文に応答する標準的な応答文
の数「5」とその応答文の識別番号「T1001」、
「T1002」、・・・「T1005」とが記憶されて
いる。この応答文の識別番号は、応答文データベース1
02に応答文を識別する識別番号として記憶されている
ものである。
The identification number "0002" of the question translation database 101 contains the Japanese question "How long does it take to get to the airport?"
does it take to the airport? " Further, the number “5” of standard response sentences responding to this question message and the identification number “T1001” of the response message,
"T1002",... "T1005" are stored. The identification number of this response statement is stored in the response statement database 1
02 is stored as an identification number for identifying the response sentence.

【0013】応答文データベース102は、ROM等か
らなり、質問文翻訳データベース101の英語の質問文
に答える標準的な応答文の一覧が記憶されている。図3
は、応答文データベース102に記憶されている内容の
一例を示す図である。各応答文301には、その応答文
の日本語訳302と、その応答文の識別番号303とが
対応して記憶されている。
The response sentence database 102 is composed of a ROM or the like, and stores a list of standard response sentences that answer English question sentences in the question sentence translation database 101. FIG.
FIG. 4 is a diagram showing an example of contents stored in a response sentence database 102. Each response sentence 301 stores therein a Japanese translation 302 of the response sentence and an identification number 303 of the response sentence.

【0014】応答文データベース102には、識別番号
「T0999」で識別される応答文「30dollars」と
その日本語への翻訳文「30ドルです。」とが記憶され
ている。
The response sentence database 102 stores a response sentence "30dollars" identified by the identification number "T0999" and a translation into Japanese of "30 dollars."

【0015】入力操作部103は、キーボード等からな
り、ユーザの質問文の入力を受け付ける。この際、ユー
ザは、質問文の全文を入力してもよいけれども、例え
ば、空港への所要時間を尋ねたい場合、「空港」と「時
間」とを入力する。入力操作部103は、入力された質
問文又は入力された単語「空港」と「時間」とを質問文
選択部104に通知する。
The input operation unit 103 includes a keyboard or the like, and receives a user's input of a question sentence. At this time, the user may input the full text of the question text, but, for example, if he wants to ask for the time required for the airport, he inputs "airport" and "time". The input operation unit 103 notifies the question text selection unit 104 of the input question text or the input words “airport” and “time”.

【0016】また、入力操作部103は、ユーザからの
質問指示の入力を受けると、質問文選択部104にその
旨を通知する。
Further, upon receiving an input of a question instruction from the user, the input operation unit 103 notifies the question sentence selection unit 104 of that fact.

【0017】質問文選択部104は、入力操作部103
から質問文の通知を受けると、質問文翻訳データベース
101を調べ、一致する質問文とその翻訳された質問文
と識別番号と応答文の識別番号とを抽出する。
The question selecting section 104 includes an input operating section 103
When the notification of the question sentence is received from, the question sentence translation database 101 is searched, and the matching question sentence, the translated question sentence, the identification number and the identification number of the response sentence are extracted.

【0018】また、質問文として単語の通知を受ける
と、その単語をキーワードとして、キーワードを含む質
問文を選択し、対になっている翻訳された質問文と識別
番号とその応答文の識別番号とを抽出する。例えば、
「空港」と「時間」とを通知されたとき、この2つのキ
ーワードを含む識別番号「0002」の質問文「空港へ
はどのくらい時間がかかりますか」を選択する。質問文
選択部104は、抽出した日本語の質問文と英語の質問
文とを表示部105の所定の領域に表示させ、併せて、
応答文の識別番号「T1001、T1002、T100
3、T1004、T1005」を応答文抽出部107に
通知する。
When a word is received as a question sentence, the word is used as a keyword, a question sentence including the keyword is selected, and the translated question sentence, the identification number, and the identification number of the response sentence are paired. And extract For example,
When notified of “airport” and “time”, the user selects the question “How long does it take to get to the airport” with the identification number “0002” including these two keywords? The question sentence selecting unit 104 displays the extracted Japanese question sentence and the English question sentence in a predetermined area of the display unit 105, and
Response statement identification number "T1001, T1002, T100
3, T1004, T1005 "to the response sentence extraction unit 107.

【0019】質問文選択部104は、入力操作部103
から質問指示の通知を受けると、音声出力部106に質
問文の識別番号を通知する。
The question selecting section 104 includes an input operating section 103
When the notification of the question instruction is received from, the voice output unit 106 is notified of the identification number of the question sentence.

【0020】表示部105は、液晶ディスプレイ等から
なり、質問文選択部104と応答文抽出部107の制御
により、質問文や応答文を表示する。
The display unit 105 is composed of a liquid crystal display or the like, and displays a question sentence or a response sentence under the control of the question sentence selection unit 104 and the response sentence extraction unit 107.

【0021】図4は、表示部105の表示内容の一例を
示す図である。この図は、質問文選択部104で質問文
が選択され、音声出力部106から翻訳された質問文が
音声出力されている状態での表示例である。日本語の質
問文401とその英語の質問文402とが質問文選択部
104によって表示され、その英語の質問文402の答
えとなる標準的な応答文とそれを日本語に翻訳した翻訳
応答文との一覧である応答例403とが応答文抽出部1
07によって表示される。このような表示がされること
により、ユーザは、自分が質問しようとする内容と、会
話相手が答えてくれるであろう応答文の内容を知ること
ができる。
FIG. 4 is a diagram showing an example of the display contents of the display unit 105. This figure is a display example in a state where the question sentence is selected by the question sentence selection unit 104 and the translated question sentence is output from the voice output unit 106 as voice. A Japanese question sentence 401 and its English question sentence 402 are displayed by the question sentence selection unit 104, and a standard answer sentence as an answer to the English question 402 and a translated answer sentence translated into Japanese The response example 403 is a list of the response sentence extraction unit 1
07. With such a display, the user can know the content of the question he or she wants to answer and the content of the response sentence that the conversation partner will answer.

【0022】図5は、表示部105の表示内容の他の一
例を示す図である。この図は、ユーザの会話相手から質
問文に対する音声の応答文を受けた後の表示内容を示し
ている。質問文401、402は、図4と同様に表示さ
れている。応答例501は、音声認識部110で認識さ
れた会話相手からの音声応答の認識結果に類似する応答
文の一覧が示されている。この応答文中の認識結果と一
致する単語は、反転表示されている。表示部105の下
段に、音声応答の認識結果502が示されている。この
表示部105の内容をユーザが見れば、空港までの所要
時間が「タクシーで20分」であることを推定できる。
即ち、認識結果502に一致する単語を反転表示された
部分が応答文に示されているので、それと認識結果50
2とを比べることにより、数字が異なることから類推さ
れる。
FIG. 5 is a diagram showing another example of the display contents of the display unit 105. This figure shows the display contents after receiving a voice response sentence to the question sentence from the user's conversation partner. The question sentences 401 and 402 are displayed in the same manner as in FIG. The response example 501 shows a list of response sentences similar to the recognition result of the voice response from the conversation partner recognized by the voice recognition unit 110. Words that match the recognition result in this response sentence are highlighted. The lower part of the display unit 105 shows the voice response recognition result 502. If the user looks at the contents of the display unit 105, it can be estimated that the required time to the airport is "20 minutes by taxi".
In other words, since the part in which the word corresponding to the recognition result 502 is highlighted is shown in the response sentence, it is displayed in the response sentence.
By comparing with 2, it can be inferred from the fact that the numbers are different.

【0023】音声出力部106は、質問文の識別番号と
その翻訳された質問文の音声パターンとを記憶してお
り、質問文選択部104から識別番号を通知されると、
その識別番号の音声パターンを取り出し、音声信号に変
換し、スピーカを介して、質問文を音声出力する。
The voice output unit 106 stores the identification number of the question text and the voice pattern of the translated question text. When the identification number is notified from the question text selection unit 104,
The voice pattern of the identification number is extracted, converted into a voice signal, and a question sentence is output as voice via a speaker.

【0024】応答文抽出部107は、質問文選択部10
4から応答文の識別番号の通知を受けると、応答文デー
タベース102に記憶されている識別番号の一致する応
答文とその翻訳応答文とを抽出する。抽出した応答文と
その翻訳応答文との一覧を表示部105の所定の領域に
図4に示したように表示させる。
The answer sentence extracting unit 107 is provided for the question sentence selecting unit 10.
When the notification of the identification number of the response sentence is received from 4, the response sentence having the identification number stored in the response sentence database 102 and the translated response sentence are extracted. A list of the extracted response sentences and their translated response sentences is displayed in a predetermined area of the display unit 105 as shown in FIG.

【0025】また、応答文抽出部107は、音声認識部
110から認識結果である文字応答文の通知を受ける
と、抽出した応答文のうち、文字応答文と類似する応答
文を選択する。この類似する応答文とその翻訳応答文と
文字応答文とを表示部105の所定の表示領域に表示さ
せる。
When the response sentence extracting unit 107 receives a notification of the character response sentence as the recognition result from the speech recognition unit 110, the response sentence extraction unit 107 selects a response sentence similar to the character response sentence from the extracted response sentences. The similar response sentence, its translation response sentence, and the character response sentence are displayed in a predetermined display area of the display unit 105.

【0026】この類似する応答文の選択に際して、通知
された文字応答文を構成する単語と、抽出した応答文を
構成する単語とを比較し、一致する単語が応答文に存在
するとき、その応答文を類似する応答文として選択す
る。また、この応答文中の一致する単語の表示属性を図
5に示すように白抜きの反転表示となるよう表示属性を
変更する。
At the time of selecting a similar response sentence, a word constituting the notified character response sentence is compared with a word constituting the extracted response sentence. Select a sentence as a similar response sentence. In addition, the display attribute of the matching word in the response sentence is changed so that the display attribute of the matching word is reversely displayed in white as shown in FIG.

【0027】なお、本実施の形態では、類似する応答文
は、応答文に文字応答文を構成する単語を含む場合とし
たけれども、類似する応答文の選択を以下のようにして
もよい。応答文抽出部107は、応答文に含まれる単語
の総数に対する文字応答文を構成する単語に一致する単
語数の割合を類似度として計算し、所定値以上の類似度
を有する応答文を類似する応答文として選択する。
In the present embodiment, the similar response sentence includes the words constituting the character response sentence in the response sentence, but the similar response sentence may be selected as follows. The response sentence extraction unit 107 calculates the ratio of the number of words matching the words constituting the character response sentence to the total number of words included in the response sentence as the similarity, and resembles the response sentences having the similarity of a predetermined value or more. Select as a response sentence.

【0028】音声認識辞書108は、単語標準パターン
と単語とを対にして記憶している。図6は、音声認識辞
書108の内容の一例を示す図である。
The speech recognition dictionary 108 stores word standard patterns and words in pairs. FIG. 6 is a diagram showing an example of the contents of the speech recognition dictionary 108.

【0029】単語標準パターン601は、標準的に発音
された単語「twenty」602を発音時間分に対応した5
0フレームの特徴量で表している。各フレームは、単語
「twenty」を0.5秒で発音し、時間間隔10msごとず
らした所定時間分の音声パターンに対応している。この
音声パターンをフーリエ変換し、周波数帯域を16分割
し、各帯域の強度を16の数値列で表したものを1フレ
ームの特徴量としている。なお、音声パターン604
は、この各フレームへの分割を説明している。単語「mi
nutes」等についても、単語標準パターンは、所定数の
フレームに16の数値列で表されているけれども、図で
は省略されている。
The word standard pattern 601 is obtained by converting a normally pronounced word "twenty" 602 to a pronunciation time corresponding to 5 minutes.
It is represented by the feature amount of 0 frame. Each frame corresponds to a voice pattern for a predetermined time, which sounds the word “twenty” in 0.5 seconds and is shifted by a time interval of 10 ms. This voice pattern is subjected to Fourier transform, the frequency band is divided into 16, and the intensity of each band is represented by a 16-value sequence as a feature amount of one frame. Note that the voice pattern 604
Describes the division into frames. The word mi
Also for "nutes" and the like, the word standard pattern is represented by a numerical sequence of 16 in a predetermined number of frames, but is omitted in the figure.

【0030】音声入力部109は、マイクロフォン等か
らなり、会話相手の音声応答文の入力を受け付け、音声
認識部110にその音声信号を通知する。
The voice input unit 109 includes a microphone or the like, receives input of a voice response sentence of a conversation partner, and notifies the voice recognition unit 110 of the voice signal.

【0031】音声認識部110は、音声入力部109か
ら通知された音声信号を分析し、単語単位の各セグメン
トに分割し、各セグメントの音声パターンと音声認識辞
書108の単語標準パターンとを照合する。音声パター
ンと最も類似度の高い単語標準パターンに対にして記憶
されている単語を認識結果とし、認識結果の単語を並べ
て文字応答文を得る。得られた文字応答文を応答文抽出
部107に通知する。
The voice recognition unit 110 analyzes the voice signal notified from the voice input unit 109, divides the voice signal into segments in word units, and checks the voice pattern of each segment against the word standard pattern in the voice recognition dictionary 108. . A word stored as a pair with the word standard pattern having the highest similarity to the voice pattern is used as a recognition result, and the words of the recognition result are arranged to obtain a character response sentence. The obtained character response sentence is notified to the response sentence extraction unit 107.

【0032】本実施の形態では、音声入力部109から
入力された音声応答文「20minutes by taxi.」が音声
認識部110で認識されたけれども、入力される音声応
答文によっては、最も類似度の高い標準単語パターンに
対になっている単語を選択することが必ずしも正しい認
識結果である文字応答文になるとは限らない。
In this embodiment, although the voice response sentence "20 minutes by taxi." Input from the voice input unit 109 is recognized by the voice recognition unit 110, depending on the input voice response sentence, the similarity degree is the highest. Selecting a word paired with a high standard word pattern does not always result in a character response sentence that is a correct recognition result.

【0033】本実施の形態の音声認識部110は、更に
以下の構成を有する。
The speech recognition section 110 of the present embodiment further has the following configuration.

【0034】音声入力部109から図7(a)に示す音
声応答文「You can go on foot.」が会話相手から入力
された場合について説明する。
The case where the voice response sentence "You can go on foot." Shown in FIG.

【0035】音声認識部110では、図7(b)に示す
ように音声分析の処理をして、音声パターン701を各
単語に対応するセグメント702〜706に分割する。
各セグメントの音声パターン702〜706と音声認識
辞書108に記憶されている単語標準パターンとを照合
し、例えば、DP(動的計画)マッチング法を用いて類
似度を計算する。これによって、セグメント702の音
声パターンから類似度の高い単語標準パターンの単語か
ら順に、「show」、「you」、「how」、・・・の各単語
候補が選択される。同様にセグメント703の音声パタ
ーンから「can」、「and」、・・・の各単語候補が選択
される。
The voice recognition unit 110 performs voice analysis processing as shown in FIG. 7B to divide the voice pattern 701 into segments 702 to 706 corresponding to each word.
The voice patterns 702 to 706 of each segment are collated with the word standard patterns stored in the voice recognition dictionary 108, and the similarity is calculated using, for example, a DP (dynamic programming) matching method. As a result, the word candidates “show”, “you”, “how”,... Are sequentially selected from the words in the word standard pattern having the highest similarity from the voice pattern of the segment 702. Similarly, word candidates “can”, “and”,... Are selected from the voice pattern of the segment 703.

【0036】今、応答文抽出部107で抽出された応答
文を構成する単語に「you」、「can」、「go」、「o
n」、「foot」等が含まれているとする。音声認識部1
10は、各セグメントごとに各単語候補が応答文抽出部
107で抽出されている応答文中の単語中に存在するか
否かを調べ、存在するときは、その類似度を例えば、
「2倍」として、各単語候補を類似度順に並べ替える。
この結果、音声入力部109から入力された音声応答文
の音声パターン701から図8に示すような修正された
類似度により、各単語候補の順位が並べ替えられる。な
お、図7(b)、図8において、類似度の具体的数値の
記載は省略している。音声認識部110は、最も類似度
の高い候補文字をセグメント順に並べて、「You can go
on foot.」を認識結果である文字応答文として応答文
抽出部107に通知する。
Now, the words constituting the response sentence extracted by the response sentence extraction unit 107 include "you", "can", "go", and "o".
"n", "foot", and the like. Voice recognition unit 1
10 checks whether or not each word candidate is present in a word in the response sentence extracted by the response sentence extraction unit 107 for each segment, and if so, determines the similarity, for example,
Each word candidate is rearranged in the order of similarity as “double”.
As a result, the order of each word candidate is rearranged from the voice pattern 701 of the voice response sentence input from the voice input unit 109 based on the corrected similarity as shown in FIG. Note that, in FIGS. 7B and 8, description of specific numerical values of the similarity is omitted. The voice recognition unit 110 arranges the candidate characters having the highest similarity in the order of the segments, and “You can go
on foot. "is notified to the response sentence extraction unit 107 as a character response sentence as a recognition result.

【0037】このように、質問文に対する応答文が標準
的な応答文として応答文抽出部107に用意されている
ので、その応答文を用いて、不特定の会話相手の音声認
識の精度を向上させている。
As described above, since the response sentence to the question sentence is prepared in the response sentence extraction unit 107 as a standard response sentence, the accuracy of voice recognition of an unspecified conversation partner is improved by using the response sentence. Let me.

【0038】次に、本実施の形態の動作を図9、図10
のフローチャートを用いて説明する。
Next, the operation of this embodiment will be described with reference to FIGS.
This will be described with reference to the flowchart of FIG.

【0039】先ず、ユーザは、入力操作部103から日
本語の質問文を入力する(S902)。
First, the user inputs a Japanese question sentence from the input operation unit 103 (S902).

【0040】質問文選択部104は、入力操作部103
で受け付けられた質問文に一致する質問文を質問文翻訳
データベース101を検索して見つける(S904)。
見つけた質問文とその質問文を翻訳した英語の翻訳質問
文とを表示部105に表示させる(S906)。
The question sentence selecting unit 104 includes an input operation unit 103
A question sentence that matches the question sentence accepted in (1) is found by searching the question sentence translation database 101 (S904).
The found question text and the English translated question text translated from the question text are displayed on the display unit 105 (S906).

【0041】次に、応答文抽出部107は、質問文選択
部104から通知された応答文の識別番号をもとに応答
文データベース102を検索して、応答文とその翻訳文
とを抽出する(S908)。抽出した応答文とその翻訳
文との一覧を表示部105に表示させる(S910)。
Next, the response sentence extraction unit 107 searches the response sentence database 102 based on the identification number of the response sentence notified from the question sentence selection unit 104, and extracts the response sentence and its translation. (S908). A list of the extracted response sentences and their translations is displayed on the display unit 105 (S910).

【0042】質問文選択部104は、入力操作部103
において、ユーザからの質問指示があるか否かを判断す
る(S912)。なければS902に戻り、あれば音声
出力部106に質問指示を通知する。音声出力部106
は、英語の翻訳質問文を音声出力する(S914)。
The question sentence selection unit 104 includes an input operation unit 103
In, it is determined whether there is a question instruction from the user (S912). If not, the process returns to S902, and if so, the voice output unit 106 is notified of the question instruction. Audio output unit 106
Outputs the English translation question sentence (S914).

【0043】次に、音声入力部109は、音声出力部1
06から出力された英語の翻訳質問文に答えた会話相手
の英語の応答文の音声入力を受け付ける(S916)。
Next, the sound input unit 109 is connected to the sound output unit 1.
The voice input of the English response sentence of the conversation partner who answered the English translation question sentence output from 06 is accepted (S916).

【0044】音声認識部110は、音声入力部109か
ら通知された音声信号を音声分析し、音声認識辞書10
8と照合し、音声を文字応答文として認識する(S91
8)。
The voice recognition section 110 analyzes the voice signal notified from the voice input section 109 and performs voice analysis.
8 and recognize the voice as a character response sentence (S91).
8).

【0045】応答文抽出部107は、応答文の一覧から
文字応答文に類似する応答文を選択する(S920)。
類似する応答文(英語)とその翻訳文(日本語)と認識
結果である文字応答文(英語)とを表示部105に表示
させ、この際、類似する応答文の文字応答文に一致する
部分の表示属性を変更する(S922)。このようにす
ることによって、ユーザは、英語を理解することができ
なくても、質問に対する答えを日本語で理解することが
できる。
The response sentence extracting unit 107 selects a response sentence similar to the character response sentence from the list of response sentences (S920).
A similar response sentence (English), its translated sentence (Japanese), and a character response sentence (English) as a recognition result are displayed on the display unit 105. At this time, a part that matches the character response sentence of the similar response sentence Is changed (S922). By doing so, the user can understand the answer to the question in Japanese even if he cannot understand English.

【0046】次に、S918の動作の詳細を図10のフ
ローチャートを用いて詳細に説明する。
Next, the operation of step S918 will be described in detail with reference to the flowchart of FIG.

【0047】先ず、音声認識部110は、音声入力部1
09から入力された音声信号を音声分析して、単語単位
のセグメントの音声パターンに分割する(S100
2)。分割した音声パターンを1つ取り出し、音声認識
辞書108の標準単語パターンとパターンマッチングし
て類似度を計算する(S1004)。この類似度が一定
値以上の値を有する標準単語パターンの単語を単語候補
とする(S1006)。すべてのセグメントの音声パタ
ーンについてこの照合をする(S1008)。
First, the voice recognition unit 110 is connected to the voice input unit 1
Speech analysis of the speech signal input from S09 is performed to divide the speech signal into speech patterns of segments in word units (S100).
2). One of the divided voice patterns is taken out, and the similarity is calculated by pattern matching with the standard word pattern of the voice recognition dictionary 108 (S1004). A word of the standard word pattern having a similarity value equal to or greater than a certain value is set as a word candidate (S1006). This collation is performed for the voice patterns of all the segments (S1008).

【0048】続いて、単語候補が応答文抽出部で抽出さ
れている応答文の一覧にある応答文を構成する単語と一
致するか否か判断する(S1010)。一致しなけれ
ば、S1014に移り、一致するときには、その単語候
補の類似度を2倍に修正する(S1012)。
Subsequently, it is determined whether or not the word candidate matches a word constituting the response sentence in the list of response sentences extracted by the response sentence extraction unit (S1010). If they do not match, the process moves to S1014, and if they do match, the similarity of the word candidate is corrected to twice (S1012).

【0049】次に未処理の単語候補があるか否かを判断
し(S1014)、あればS1010に戻り、なければ
各セグメントの類似度の最も高い単語候補を並べて認識
結果である文字応答文を得る(S1016)。
Next, it is determined whether or not there is an unprocessed word candidate (S1014). If there is, the process returns to S1010. If not, the word candidates having the highest similarity of each segment are arranged and the character response sentence as the recognition result is obtained. (S1016).

【0050】このように、予め質問文に対する標準的な
応答文が用意されているので、音声応答を音声認識する
際に、この応答文に含まれる単語が認識結果である文字
応答文を構成する単語となる確率が高いことを利用でき
る。この結果、不特定の会話相手の音声応答であって
も、音声認識の精度が向上する。
As described above, since a standard response sentence to a question sentence is prepared in advance, when a voice response is recognized by speech, the words included in the response sentence constitute a character response sentence as a recognition result. You can take advantage of the high probability of being a word. As a result, the accuracy of voice recognition is improved even if the voice response is from an unspecified conversation partner.

【0051】(実施の形態2)図11は、本発明に係る
通訳装置の実施の形態2の構成図である。
(Embodiment 2) FIG. 11 is a configuration diagram of an interpreter according to Embodiment 2 of the present invention.

【0052】この通訳装置は、質問文翻訳データベース
101と、応答文データベース1101と、入力操作部
103と、質問文選択部104と、表示部105と、音
声出力部1102と、応答文抽出部1103と、音声認
識辞書108と、音声入力部109と、音声認識部11
0とを備えている。
This interpreter includes a question sentence translation database 101, a response sentence database 1101, an input operation unit 103, a question sentence selection unit 104, a display unit 105, a voice output unit 1102, and a response sentence extraction unit 1103. , Voice recognition dictionary 108, voice input unit 109, voice recognition unit 11
0.

【0053】なお、上記実施の形態1の構成と同一の部
分には同一の符号を付してその説明を省略し、本実施の
形態固有の構成部分についてのみ説明する。
The same components as those of the first embodiment are denoted by the same reference numerals, and the description thereof will be omitted. Only the components unique to the present embodiment will be described.

【0054】応答文データベース1101は、上記実施
の形態1で説明した第2言語(英語)の標準的な応答文
とその第1言語(日本語)の翻訳応答文に加えて、その
応答文の単語と翻訳応答文の単語との対応を同一の識別
番号を付して関連付けて記憶している。更に、応答文を
構成する単語又は単語列が質問文に対する応答として必
須の要件か否か、また必須の要件である場合には、置換
可能性があるか否か、音声認識が正しくされなかったと
きの再質問規則が記憶されている。
The response sentence database 1101 stores, in addition to the standard response sentence in the second language (English) and the translation response sentence in the first language (Japanese) described in the first embodiment, the response sentence The correspondence between the word and the word of the translation response sentence is stored in association with the same identification number. Furthermore, whether the word or word string constituting the response sentence is an essential requirement as a response to the question sentence, and if it is an essential requirement, whether or not there is a possibility of replacement, speech recognition was not correctly performed The re-question rule at the time is stored.

【0055】ここで、置換可能性とは、標準的な応答文
を構成する単語が他の単語に置換されることが予想され
ることをいい、置換条件となる単語の属性を含んでい
る。
Here, the replaceability means that a word constituting a standard response sentence is expected to be replaced with another word, and includes the attribute of a word serving as a replacement condition.

【0056】また、再質問規則は、音声認識部110に
おいて、その応答文を構成する単語を正しく認識するこ
とができなかったときに、再質問をするときの規則を定
めたものである。
The re-question rule defines a rule for asking a re-question when the speech recognizing unit 110 cannot correctly recognize a word constituting the response sentence.

【0057】図12は、この応答文データベース110
1の内容の一例を示す図である。識別番号「T100
1」で識別される応答文「15minutes.」とその翻訳応
答文「15分です。」とを構成する単語の「15」と
「15」とには識別番号「1」が、「minutes」と
「分」とには識別番号「2」がそれぞれ付記されてお
り、対応する単語であることを示している。同様に識別
番号「T1005」で識別される応答文とその翻訳応答
文とにも対応する単語に同一の識別番号が付されてい
る。
FIG. 12 shows the response sentence database 110
FIG. 3 is a diagram showing an example of the content of No. 1; The identification number "T100
The words “15” and “15” constituting the response sentence “15 minutes” identified by “1” and the translated response sentence “15 minutes” have identification numbers “1” and “minutes”. The identification number “2” is added to “minute”, which indicates that the word is the corresponding word. Similarly, words corresponding to the response sentence identified by the identification number “T1005” and the translated response sentence are also given the same identification number.

【0058】一覧表1201、1202は、応答文を構
成する単語について「必須の要件」欄1203と、「置
換可能性」欄1204と、「再質問規則」欄1205と
を有している。一覧表1201は、識別番号「T100
1」で識別される応答文を構成する単語「15」、「mi
nutes」が「必須の要件」であるか否か等を記載したも
のである。両単語とも「必須」であるので「YES」12
06が「必須の要件」欄1203に記載されている。
Each of the lists 1201 and 1202 has a “required requirement” column 1203, a “replaceability” column 1204, and a “requestion rule” column 1205 for the words constituting the response sentence. The list 1201 contains the identification number “T100
The words “15” and “mi” that make up the response sentence identified by “1”
nutes "is an" essential requirement "or not. "YES" 12 because both words are "required"
06 is described in the “essential requirement” column 1203.

【0059】また、両単語とも他の単語に置換されるこ
とが予想されるので、「置換可能性」欄1204にはYE
S1207が記載され、単語「15」が置換される単語
は「数字」であり、単語「minutes」が置換される単語
は「時間単位」例えば、「second」、「hour」であるこ
とが記載されている。
Since both words are expected to be replaced with other words, the “replaceability” column 1204 shows YE
S1207 is described, and the word in which the word "15" is replaced is "number", and the word in which the word "minutes" is replaced is "hour unit", for example, "second", "hour". ing.

【0060】また、単語「15」又は置換条件に合致し
た単語が正しく音声認識されないときの対応する規則が
再質問規則欄1205に「KEYBORD」1208と記載さ
れている。この規則「KEYBORD」1208は、会話相手
からキーボードの操作により単語「15」を置換する数
字の入力を受け付けることを意味している。
A rule corresponding to the case where the word “15” or a word that satisfies the replacement condition is not correctly recognized by speech is described as “KEYBORD” 1208 in the re-question rule column 1205. The rule “KEYBORD” 1208 means that an input of a numeral for replacing the word “15” is accepted from a conversation partner by operating the keyboard.

【0061】単語「minutes」又は置換条件に合致した
単語が正しく音声認識されないときの対応規則が再質問
規則欄1205に「MENU」1209と記載されている。
この規則「MENU」1209は、表示部105に「minute
s」、「second」、「hour」を表示して、この中から一
つを会話相手に選択させることを意味している。
The corresponding rule when the word “minutes” or the word that matches the replacement condition is not correctly recognized by speech is described as “MENU” 1209 in the re-question rule column 1205.
This rule “MENU” 1209 indicates that “minute”
"s", "second", and "hour" are displayed, which means that the conversation partner can select one of them.

【0062】同様に一覧表1202には、識別番号「T
1005」で識別される応答文を構成する単語が「必須
の要件」であるか否か等が記載されている。
Similarly, list 1202 includes identification number “T”
1005 ”describes whether the word constituting the response sentence identified as“ 1005 ”is“ essential requirement ”.

【0063】単語列「by taxi」は、必須の要件であ
り、置換条件とされる単語の属性は「交通機関」であ
り、再質問規則として「STR "By what?"」1210が
記載されている。ここで、再質問規則「STR "By what
?"」1210は、会話相手に音声による質問文"By what
?"を出力することを意味している。
The word string “by taxi” is an essential requirement, the attribute of the word used as the replacement condition is “transportation”, and “STR“ By what? ”” 1210 is described as a re-question rule. I have. Here, the re-question rule "STR" By what
"" 1210 is a question sentence to the conversation partner by voice "By what
? "Is output.

【0064】音声出力部1102は、再質問規則に対応
した音声パターンを記憶している。
The voice output unit 1102 stores a voice pattern corresponding to the re-question rule.

【0065】再質問規則「KEYBOARD」1208に対応し
て「Input numerals with keyboard.」の音声パターン
を記憶しており、「MENU」1209に対応して「Indica
te appropriate menu item.」の音声パターンを記憶し
ており、「STR "By what?"」1211に対応して「By
what?」の音声パターンを記憶している。
The voice pattern of “Input numerals with keyboard.” Is stored in correspondence with the re-question rule “KEYBOARD” 1208, and “Indica” is stored in correspondence with “MENU” 1209.
te appropriate menu item. ", and corresponding to" STR "By what?"
What? "

【0066】音声出力部1102は、応答文抽出部11
03から再質問規則の通知を受けると、対応する音声パ
ターンを音声として出力する。また、応答文抽出部11
03から再質問の指示を受けると、英語の翻訳質問文を
再度出力する。
The voice output unit 1102 is connected to the response sentence extraction unit 11
When the notification of the re-question rule is received from 03, the corresponding voice pattern is output as voice. The response sentence extraction unit 11
When the instruction for re-question is received from 03, the English-translated question sentence is output again.

【0067】応答文抽出部1103は、上記実施の形態
1で説明した構成に加えて、音声認識部110から文字
応答文の通知を受けて類似する応答文を選択した後、以
下の処理をする。
The response sentence extracting unit 1103 performs the following processing after selecting a similar response sentence by receiving a character response sentence from the voice recognition unit 110 in addition to the configuration described in the first embodiment. .

【0068】応答文抽出部1103は、文字応答文と類
似する応答文とが完全に一致するか否かを両文を構成す
る単語を比較して判断する。完全に一致すれば、質問文
の答えに対する応答が成立したものとする。
The response sentence extracting unit 1103 determines whether or not the character response sentence and the similar response sentence completely match by comparing the words constituting both sentences. If they completely match, it is assumed that a response to the answer to the question sentence has been established.

【0069】完全に一致しないとき、異なる部分(類似
する応答文の単語)が必須の要件であるか否かを応答文
データベース1101の一覧表1201等をみて判断す
る。必須の要件でなければ、質問文の答えとして成立す
るとみなす。
If they do not completely match, it is determined by referring to the list 1201 of the response sentence database 1101 whether or not a different part (a word of a similar response sentence) is an essential requirement. If it is not an essential requirement, it is considered to be satisfied as an answer to the question sentence.

【0070】異なる部分が必須の要件であるとき、その
単語が置換可能性を有するか否かを同様に一覧表120
1等をみて判断する。置換可能性がなければ、質問に対
する答えとして成立しない。この際、質問文が会話相手
に伝わらなかったものとして、音声出力部1102に再
質問の指示をする。
When a different part is an essential requirement, it is similarly determined whether or not the word has a substitutability.
Judge by looking at 1 etc. If there is no possibility of replacement, it will not hold as the answer to the question. At this time, the voice output unit 1102 is instructed to re-question that the question sentence has not been transmitted to the conversation partner.

【0071】置換可能性があるときには、文字応答文の
異なる部分に対応する単語が置換条件である単語の属性
に一致するか否かを判断する。一致すると判断したと
き、文字応答文は質問文の答えとして成立する。
When there is a possibility of replacement, it is determined whether or not words corresponding to different parts of the character response sentence match the attribute of the word as the replacement condition. When it is determined that they match, the character response sentence is established as an answer to the question sentence.

【0072】一致しないと判断したとき、質問文の答え
として必須の要件が欠落していることになるので、再質
問規則を一覧表1201等から取得する。
When it is determined that they do not match, the essential requirement is missing as the answer to the question sentence, so the re-question rule is obtained from the list 1201 or the like.

【0073】応答文抽出部1103は、再質問規則が
「KEYBOARD」1208であるときには、音声出力部11
02に再質問規則「KEYBOARD」を通知するとともに、表
示部105に、「キーボードで入力依頼」を表示させ
る。これにより、ユーザは、会話相手に入力操作部10
3を用いて入力操作を受けることを了解する。
When the re-question rule is “KEYBOARD” 1208, the response sentence extracting unit 1103
02 is notified of the re-question rule "KEYBOARD", and the display unit 105 displays "input request by keyboard". As a result, the user can use the input operation unit 10 as a conversation partner.
It is understood that the input operation is received by using No.3.

【0074】また、再質問規則が「MENU」1209であ
るときには、音声出力部1102に再質問規則「MENU」
を通知するとともに、表示部105に「second」、「mi
nutes」、「hour」を表示させる。なお、この場合、置
換条件の単語の属性が「時間単位」であるのでメニュー
項目が「second」等となったけれども、単語の属性によ
ってメニュー項目の内容は変更される。
When the re-question rule is “MENU” 1209, the voice output unit 1102 outputs the re-question rule “MENU”
And the display unit 105 displays “second” and “mi”
nutes "and" hour ". In this case, since the attribute of the word of the replacement condition is “time unit”, the menu item is “second” or the like, but the content of the menu item is changed depending on the attribute of the word.

【0075】再質問規則が「STR "By what?"」1210
であるときには、音声出力部1102に再質問規則「ST
R "By what?"」を通知する。
The re-question rule is “STR“ By what? ”” 1210
, The re-question rule “ST
R "By what?"

【0076】応答文抽出部1103は、音声出力部11
02に「STR "By what?"」の通知をした後、音声認識部
110から文字応答文(単語列)の通知を受けると、類
似する応答文の単語列又は置換条件に合致した、「by t
axi」、「by bus」「by train」又は「on foot」等であ
るときには、文字応答文を修正する。
The response sentence extracting unit 1103 is connected to the voice output unit 11
After the notification of “STR“ By what? ”” Is received in 02 and the notification of the character response sentence (word string) is received from the voice recognition unit 110, the word string of the similar response sentence or the “by“ t
If it is "axi", "by bus", "by train" or "on foot", the character response sentence is corrected.

【0077】また、再質問規則「KEYBOARD」、「MENU」
を音声出力部1102に通知した後に、入力操作部10
3から会話相手からの数字の入力やメニュー項目の指示
を受けた旨の通知により、対応する文字応答文の単語を
数字やメニュー項目の内容に変更して表示部105に表
示させる。
Also, the re-question rules “KEYBOARD”, “MENU”
Is notified to the audio output unit 1102, and the input operation unit 10
In response to the notification that a conversation partner has input a number or an instruction for a menu item from 3, the corresponding word of the character response sentence is changed to a number or a menu item and displayed on the display unit 105.

【0078】応答文抽出部103は、上記実施の形態1
では、文字応答文と類似する応答文とを構成する単語で
一致するものを類似する応答文の表示属性を変更して表
示するようにしたけれども、本実施の形態では、これに
換えて、応答文データベース1101の類似する応答文
を構成する単語とその翻訳応答文を構成する単語との対
応関係を識別番号から調べ、文字応答文に一致する翻訳
応答文の部分の表示属性を変更する。
The response sentence extracting unit 103 is the same as that of the first embodiment.
In the present embodiment, words constituting a character response sentence and a similar response sentence are displayed by changing the display attribute of the similar response sentence, but in the present embodiment, The correspondence between words constituting a similar response sentence and words constituting the translation response sentence in the sentence database 1101 is checked from the identification number, and the display attribute of the translation response sentence that matches the character response sentence is changed.

【0079】なお、音声認識部110において、全ての
候補文字の類似度が所定のしきい値以下であるときに
は、認識不能としてその部分を応答文抽出部1103に
通知する。この場合に、応答文抽出部1103は、応答
文を構成する単語を正しく認識することができなかった
ときと同様に取り扱う。
When the similarity of all the candidate characters is equal to or smaller than a predetermined threshold, the speech recognition unit 110 determines that the candidate character cannot be recognized and notifies the response sentence extraction unit 1103 of the part. In this case, the response sentence extraction unit 1103 treats the words constituting the response sentence in the same manner as when the words could not be correctly recognized.

【0080】今、上記実施の形態1と同様の英語の質問
文「How long does it take to theairport?」が音声出
力部106から出力された場合に、音声認識部110に
おいて、文字応答文「xxx minutes by taxi.」が認識さ
れたとき(「xxx」は音声認識不能を示す)、応答文抽
出部1103は、「xxx」が必須の要件であり、置換条
件が数字であり、再質問規則が「KEYBOARD」1208で
あると判断する。音声出力部1102から「Input nume
rals with keyboard.」が音声出力される。会話相手に
本装置を渡し、入力操作部103から数字「20」の入
力を受ける。これによって、音声認識が不能であった
「xxx」が数字「20」に置換される。
Now, when the English question sentence “How long does it take to the airport?” Similar to that of the first embodiment is output from the voice output unit 106, the voice response unit “xxx” is output by the voice recognition unit 110. When "minutes by taxi." is recognized ("xxx" indicates that speech recognition is not possible), the response sentence extraction unit 1103 indicates that "xxx" is an essential requirement, the replacement condition is a number, and the re-question rule is It is determined that it is “KEYBOARD” 1208. From the audio output unit 1102, "Input nume
rals with keyboard. " The device is handed over to the conversation partner, and the input of the number “20” is received from the input operation unit 103. As a result, “xxx” for which speech recognition was not possible is replaced with the numeral “20”.

【0081】図13は、表示部105に表示された内容
の一例を示している。応答例1301では、翻訳応答文
の文字応答文1302に一致する対応部分が反転表示さ
れている。なお、表示属性の変更を反転表示としている
けれども、他の属性、例えば表示色の変更等であっても
よい。 これによって、ユーザは、より一層会話相手か
らの答えを容易に理解することができる。 次に、本実
施の形態の動作を図14に示すフローチャートを用いて
説明する。上記実施の形態1の図9に示したS920ま
での動作は同様であるので、本実施の形態固有の動作の
み説明する。
FIG. 13 shows an example of the contents displayed on the display unit 105. In response example 1301, the corresponding part of translation response sentence that matches character response sentence 1302 is highlighted. Although the change of the display attribute is reverse display, another attribute, such as a change of the display color, may be used. This allows the user to further easily understand the answer from the conversation partner. Next, the operation of the present embodiment will be described with reference to the flowchart shown in FIG. Since the operations up to S920 shown in FIG. 9 of the first embodiment are the same, only the operations unique to the present embodiment will be described.

【0082】S920において、応答文抽出部1103
は、応答文の一覧から文字応答文に類似する応答文を選
択する。
At S 920, response sentence extracting unit 1103
Selects a response sentence similar to a character response sentence from a list of response sentences.

【0083】次に、応答文抽出部1103は、文字応答
文と類似する応答文とが、完全に一致するか否かを判断
し(S1402)、一致すると判断したときはS141
6に移り、一致しないと判断したときは、異なる部分
(単語又は単語列)が必須の要件であるか否かを応答文
データベース1101の一覧表1201等をみて判断す
る(S1404)。必須の要件でなければS1416に
移り、必須の要件であるときは、同様に一覧表1201
等をみて置換可能性が有るか否かを判断する(S140
6)。
Next, the response sentence extraction unit 1103 determines whether or not the response sentence similar to the character response sentence completely matches (S1402).
6, when it is determined that they do not match, it is determined whether the different part (word or word string) is an essential requirement by referring to the list 1201 of the response sentence database 1101 (S1404). If it is not an essential requirement, the process moves to S1416.
It is determined whether or not there is a possibility of replacement by referring to (S140)
6).

【0084】置換可能でないと判断したときは、質問文
が会話相手に伝わらなかったとして、音声出力部110
2に再質問の指示をし、上記実施の形態1のS914に
戻る。
When it is determined that replacement is not possible, it is determined that the question message has not been transmitted to the conversation partner, and the voice output unit 110
2 is instructed to ask a question again, and the process returns to S914 of the first embodiment.

【0085】置換可能であると判断したときは、文字応
答文の単語が置換条件に合致するか否かを判断し(S1
408)、合致すればS1416に移る。合致しないと
きは、再質問規則に応じて、所定の音声を出力するよう
音声出力部1102に通知する。
When it is determined that replacement is possible, it is determined whether or not the word of the character response sentence matches the replacement condition (S1).
408) If it matches, the process moves to S1416. If not, the voice output unit 1102 is notified to output a predetermined voice according to the re-question rule.

【0086】音声出力部1102は、再質問規則に応じ
た音声を出力し、会話相手に伝える(S1410)。音
声入力部109または、入力操作部103から会話相手
からの再応答を受け付ける(S1412)。
The voice output unit 1102 outputs a voice according to the re-question rule and transmits it to the conversation partner (S1410). A re-response from the conversation partner is received from the voice input unit 109 or the input operation unit 103 (S1412).

【0087】音声認識部110は、音声入力部から入力
された音声を認識し、単語又は単語列を応答文抽出部1
103に通知し、入力操作部103は入力操作された単
語を応答文抽出部1103に通知する(S1414)。
The voice recognition unit 110 recognizes voice input from the voice input unit and converts a word or a word string into the response sentence extraction unit 1.
Then, the input operation unit 103 notifies the response sentence extraction unit 1103 of the input word (S1414).

【0088】応答文抽出部1103は、表示部105に
類似する応答文とその翻訳応答文と認識結果である文字
応答文とを表示させる。その際、文字応答文に一致する
翻訳応答文の部分の表示属性を変更する(S141
6)。
The response sentence extracting unit 1103 displays a response sentence similar to the display unit 105, its translated response sentence, and a character response sentence as a recognition result. At this time, the display attribute of the translation response sentence that matches the character response sentence is changed (S141).
6).

【0089】このようにすることで、会話相手からの音
声応答を一度は認識できなかった場合でも、その内容に
応じた再質問を用意しておき、会話相手から適切な入力
を受けて、音声応答文の認識精度を向上することができ
る。
In this way, even if the voice response from the conversation partner cannot be recognized once, a re-question according to the content is prepared, and an appropriate input is received from the conversation partner, and The accuracy of response sentence recognition can be improved.

【0090】なお、上記実施の形態では、第1言語とし
て日本語を、第2言語として英語を例に説明したけれど
も、本発明に係る通訳装置では、第1言語と第2言語と
が逆であってもよいし、また他の言語が第1または第2
言語となっていてもよい。この場合には、質問文翻訳デ
ータベース101、音声出力部106、1102、応答
文データベース102、1101及び音声認識辞書10
8がそれぞれの言語に対応する内容とされる。
In the above embodiment, Japanese is used as the first language and English is used as the second language. However, in the interpreter according to the present invention, the first language and the second language are reversed. Or another language is the first or second language
It may be a language. In this case, the question sentence translation database 101, the voice output units 106 and 1102, the response sentence databases 102 and 1101, and the speech recognition dictionary 10
8 is the content corresponding to each language.

【0091】また、上記実施の形態では、図1及び図1
1に示した構成図で示した各部がそれぞれの機能を発揮
したけれども、各部の機能を発揮されるプログラムをコ
ンピュータ読み取り可能なフロッピーディスクやCD−
ROM等の記録媒体に記録する。この通訳装置特有の機
能を有しない携帯端末装置等にこの記録媒体を装着し、
本装置と同様の機能を有する通訳装置とすることができ
る。
Further, in the above embodiment, FIGS.
Although each unit shown in the configuration diagram shown in FIG. 1 has performed its function, a computer-readable floppy disk or a CD-ROM can be used to execute a program that performs the function of each unit.
It is recorded on a recording medium such as a ROM. Attach this recording medium to a portable terminal device or the like that does not have the function unique to this interpreter,
An interpreting device having the same function as the present device can be provided.

【0092】[0092]

【発明の効果】以上説明したように、本発明は、第1言
語の質問文とそれを翻訳した第2言語の質問文とを対に
して記憶している質問文データベースと、第2言語の質
問文に応答する標準的な複数の第2言語の応答文と、そ
れらを翻訳した第1言語の応答文とを記憶している応答
文データベースと、入力操作手段と、音声入力手段と、
前記入力操作手段でユーザから入力された第1言語の質
問文を前記質問文データベースを検索し、それと対にな
っている第2言語の質問文を抽出する質問文抽出手段
と、抽出された第2言語の質問文の出力を受けてユーザ
の会話相手が第2言語の応答文を音声で入力した場合
に、入力された音声を第2言語の文字応答文として認識
する音声認識手段と、前記音声認識手段で認識された文
字応答文に類似する第2言語の応答文と対応する第1言
語の応答文とを前記応答文データベースから抽出する応
答文抽出手段と、前記応答文抽出手段で抽出された第2
言語の応答文と第1言語の応答文と前記音声認識手段で
認識された文字応答文とを表示する表示手段とを備える
こととしている。このような構成によって、ユーザの会
話相手は、通常の会話をするように音声応答するだけ
で、ユーザには、質問文に答えた応答文が、ユーザの理
解できる第1言語で表示されるのでスムーズな会話をす
ることができる。
As described above, according to the present invention, a question sentence database in which a question sentence in a first language and a question sentence in a second language obtained by translating the same are stored in pairs, A response sentence database storing a plurality of standard second language response sentences responding to the question sentence, and a first language response sentence translated therefrom; an input operation means; a voice input means;
A question sentence extracting means for searching the question sentence database for a question sentence in a first language inputted by a user with the input operation means and extracting a paired question sentence in a second language; Voice recognition means for recognizing the input voice as a text response in a second language when a conversation partner of the user inputs a voice in a second language in response to the output of the question text in two languages; A response sentence extracting unit that extracts a response sentence in a second language similar to the character response sentence recognized by the voice recognition unit and a corresponding response sentence in the first language from the response sentence database; The second
Display means for displaying a response sentence in a language, a response sentence in a first language, and a character response sentence recognized by the voice recognition means are provided. With such a configuration, since the user's conversation partner simply responds by voice so as to have a normal conversation, the user is presented with a response sentence that answers the question in a first language that the user can understand. You can have a smooth conversation.

【0093】また、前記音声認識手段は、単語標準パタ
ーンとその単語標準パターンに対応する単語とを記憶し
ている音声認識辞書と、前記音声入力手段から入力され
た音声を分析して単語単位のセグメントのパターンに分
割する分割部と、前記分割部で分割されたセグメントの
パターンと前記音声認識辞書に記憶されている単語標準
パターンとの類似度を計算し、類似度が所定値以上の単
語標準パターンに対応する単語を候補単語として抽出す
る候補単語抽出部と、前記候補単語抽出部で抽出された
各セグメント類似度の最大の候補単語を並べて文字応答
文を生成する文字応答文生成部とを有することとしてい
る。このような構成によって、会話相手の応答文を文字
応答文として認識することができる。
The speech recognition means analyzes a speech input from the speech input means by analyzing a speech recognition dictionary storing a word standard pattern and a word corresponding to the word standard pattern. A division unit that divides the pattern into segment patterns; and calculates a similarity between the pattern of the segment divided by the division unit and a word standard pattern stored in the speech recognition dictionary. A candidate word extraction unit for extracting a word corresponding to the pattern as a candidate word; and a character response sentence generation unit for generating a character response sentence by arranging candidate words having the highest similarity of each segment extracted by the candidate word extraction unit. I have it. With such a configuration, the response sentence of the conversation partner can be recognized as a character response sentence.

【0094】また、前記候補単語抽出部は、抽出した候
補単語が前記応答文抽出手段で抽出された応答文を構成
する単語と一致するとき、その類似度を所定の倍率で大
きくすることとしている。このような構成によって、不
特定の会話相手の音声であっても、応答文として予測さ
れる単語の認識する確率を高めることによって、音声応
答文の認識精度を向上することができる。 また、前記
応答文データベースには、応答文を構成する単語が応答
文として必須の要素であるかと、必須の要素であるとき
に、その単語が他の単語に置換されることが予想される
かと、予想されるとき、置換が予想される単語の意味属
性とが記憶されており、前記音声認識手段で認識された
文字応答文を構成する単語と前記類似する応答文を構成
する単語とを照合し、必須の要素を欠き、かつ、置換が
予想される単語の意味属性と異なる単語を応答文に対応
する単語とするとき文字応答文が質問の答えとして成立
しないと判断する文字応答文判断手段を備えることとし
ている。このような構成によって、音声認識手段で認識
された文字応答文が質問文の答えとして成立するか否か
が判断される。
When the extracted candidate word matches the word constituting the response sentence extracted by the response sentence extraction means, the candidate word extraction unit increases the similarity at a predetermined magnification. . With such a configuration, the recognition accuracy of a voice response sentence can be improved by increasing the probability of recognizing a word predicted as a response sentence even when the voice of an unspecified conversation partner is used. Further, the response sentence database includes information indicating whether a word constituting the response sentence is an essential element as a response sentence, and whether the word is expected to be replaced with another word when the word is an essential element. When expected, the semantic attribute of the word expected to be replaced is stored, and the words constituting the character response sentence recognized by the voice recognition means are compared with the words constituting the similar response sentence. A character response sentence determination unit that determines that a character response sentence does not hold as an answer to a question when a word lacking an essential element and having a semantic attribute different from the meaning attribute of the word to be replaced is set as a word corresponding to the response sentence Is to be provided. With such a configuration, it is determined whether or not the character response sentence recognized by the voice recognition unit is established as an answer to the question sentence.

【0095】また、前記応答文データベースには、応答
文を構成する単語が必須の要素であるときに、その単語
を認識できなかったときの再質問規則が記憶されてお
り、前記文字応答文判断手段が、文字応答文が質問の答
えとして成立しないと判断したとき、前記再質問規則に
応じた再質問を出力する出力手段を備えることとしてい
る。このような構成によって、質問文の答えと成立しな
い文字応答文を会話相手への再質問をすることによっ
て、正しく認識された文字応答文とすることができる。
Further, in the response sentence database, when a word constituting the response sentence is an essential element, a re-question rule when the word cannot be recognized is stored. When the means determines that the character response sentence does not hold as the answer to the question, it includes an output means for outputting a re-question in accordance with the re-question rule. With such a configuration, a character response sentence that does not hold the answer to the question sentence can be a correctly recognized character response sentence by asking the conversation partner again.

【0096】また、前記表示手段に表示される文字応答
文を構成する単語と前記応答文抽出手段で抽出された第
2言語の応答文を構成する単語とを比較し、一致する単
語の前記第2言語の応答文の表示属性を変更する制御手
段を備えることとしている。このような構成によって、
会話相手からの応答文の理解が容易となる。
Further, the words constituting the character response sentence displayed on the display means are compared with the words constituting the response sentence in the second language extracted by the response sentence extraction means, and the words of the matching words are compared. Control means for changing the display attributes of the bilingual response sentence is provided. With such a configuration,
It is easy to understand the response sentence from the conversation partner.

【0097】また、前記応答文データベースに記憶され
ている第1言語の応答文とその第2言語の応答文とを構
成する対応する単語に同一の識別子を付し、前記表示手
段に表示される文字応答文を構成する単語と前記応答文
抽出手段で抽出された第2言語の応答文を構成する単語
とを比較し、一致する単語と同一の識別子が付された前
記第1言語の応答文の表示属性を変更する表示制御手段
を備えることとしている。このような構成によって、会
話相手からの第2言語の応答文をユーザの理解できる第
1言語の内容との違いを明確にして知ることができる。
[0097] Corresponding words constituting the response sentence in the first language and the response sentence in the second language stored in the response sentence database are given the same identifier and displayed on the display means. The words constituting the character response sentence are compared with the words constituting the response sentence in the second language extracted by the response sentence extracting means, and the response sentence in the first language to which the same identifier as the matching word is assigned And a display control means for changing the display attribute. With such a configuration, it is possible to clarify the difference between the response sentence of the second language from the conversation partner and the content of the first language that the user can understand.

【0098】更に、コンピュータに読取可能な記録媒体
であって、第1言語の質問文とそれを翻訳した第2言語
の質問文とを対にして記憶している質問文データベース
と、第2言語の質問文に応答する標準的な複数の第2言
語の応答文と、それらを翻訳した第1言語の応答文とを
記憶している応答文データベースとを予め記録し、入力
操作手段と、音声入力手段と、前記入力操作手段でユー
ザから入力された第1言語の質問文を前記質問文データ
ベースを検索し、それと対になっている第2言語の質問
文を抽出する質問文抽出手段と、抽出された第2言語の
質問文の出力を受けてユーザの会話相手が第2言語の応
答文を音声で入力した場合に、入力された音声を第2言
語の文字応答文として認識する音声認識手段と、前記音
声認識手段で認識された文字応答文に類似する第2言語
の応答文と対応する第1言語の応答文とを前記応答文デ
ータベースから抽出する応答文抽出手段と、前記応答文
抽出手段で抽出された第2言語の応答文と第1言語の応
答文と前記音声認識手段で認識された文字応答文とを表
示させる表示制御手段との各機能を発揮させるプログラ
ムを記録することとしている。これによって、通訳機能
を有しない携帯端末装置を効率的な通訳装置として使用
することができる。
Further, a computer-readable recording medium, which stores a question sentence in a first language and a question sentence in a second language translated from the first sentence, A response sentence database storing a plurality of standard second language answer sentences responding to the question sentence of the above and a translated answer sentence of the first language, and input operation means; Input means, and a question sentence extracting means for searching the question sentence database for a question sentence in a first language input by a user with the input operation means, and extracting a question sentence in a second language paired with the query sentence database; Speech recognition for recognizing the input voice as a text response sentence in the second language when the conversation partner of the user inputs the voice response in the second language in response to the output of the extracted question text in the second language Means and recognition by the voice recognition means Response sentence extracting means for extracting a response sentence of a second language similar to the extracted character response sentence and a corresponding response sentence of the first language from the response sentence database, and a second language extracted by the response sentence extracting means And a display control unit for displaying the response sentence of the first language, the response sentence of the first language, and the character response sentence recognized by the voice recognition unit. Thereby, a portable terminal device without an interpreting function can be used as an efficient interpreting device.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る通訳装置の実施の形態1の構成図
である。
FIG. 1 is a configuration diagram of a translator according to a first embodiment of the present invention.

【図2】上記実施の形態の質問文翻訳データベースの内
容の一例を示す図である。
FIG. 2 is a diagram showing an example of the contents of a question sentence translation database of the embodiment.

【図3】上記実施の形態の応答文データベースの内容の
一例を示す図である。
FIG. 3 is a diagram showing an example of the contents of a response sentence database according to the embodiment.

【図4】上記実施の形態の表示部に表示されている内容
の一例を示す図である。
FIG. 4 is a diagram showing an example of contents displayed on a display unit of the embodiment.

【図5】上記実施の形態の表示部に表示されている内容
の他の一例を示す図である。
FIG. 5 is a diagram showing another example of the content displayed on the display unit of the embodiment.

【図6】上記実施の形態の音声認識辞書の内容の一例を
示す図である。
FIG. 6 is a diagram showing an example of the contents of a speech recognition dictionary according to the embodiment.

【図7】(a)は、上記実施の形態の音声入力部に入力
された音声応答の文字応答文の一例を示す。(b)は、
上記実施の形態の音声認識部において音声信号から単語
単位の各セグメントの音声パターンに分割して単語候補
を認識する様子の説明図である。
FIG. 7A shows an example of a character response sentence of a voice response input to the voice input unit of the embodiment. (B)
FIG. 4 is an explanatory diagram illustrating a state in which the speech recognition unit of the embodiment recognizes word candidates by dividing the speech signal into speech patterns of respective segments in word units.

【図8】上記実施の形態の音声認識部において、単語候
補の類似度を修正して、文字応答文を認識する様子の説
明図である。
FIG. 8 is an explanatory diagram showing how the speech recognition unit of the embodiment corrects the similarity of word candidates and recognizes a character response sentence.

【図9】上記実施の形態の動作を説明するフローチャー
トである。
FIG. 9 is a flowchart illustrating the operation of the embodiment.

【図10】上記図9のS918の詳細な動作を説明する
フローチャートである。
FIG. 10 is a flowchart illustrating a detailed operation of S918 in FIG. 9;

【図11】本発明に係る通訳装置の実施の形態2の構成
図である。
FIG. 11 is a configuration diagram of a translator according to a second embodiment of the present invention.

【図12】上記実施の形態の応答文データベースの内容
の一例を示す図である。
FIG. 12 is a diagram showing an example of the contents of a response sentence database according to the embodiment.

【図13】上記実施の形態の表示部に表示されている内
容の一例を示す図である。
FIG. 13 is a diagram illustrating an example of content displayed on the display unit of the embodiment.

【図14】上記実施の形態の動作を説明するフローチャ
ートである。
FIG. 14 is a flowchart illustrating an operation of the embodiment.

【符号の説明】[Explanation of symbols]

101 質問文翻訳データベース 102、1101 応答文データベース 103 入力操作部 104 質問文選択部 105 表示部 106、1102 音声出力部 107、1103 応答文抽出部 108 音声認識辞書 109 音声入力部 110 音声認識部 101 Question sentence translation database 102, 1101 Response sentence database 103 Input operation unit 104 Question sentence selection unit 105 Display unit 106, 1102 Speech output unit 107, 1103 Response sentence extraction unit 108 Speech recognition dictionary 109 Speech input unit 110 Speech recognition unit

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 第1言語の質問文とそれを翻訳した第2
言語の質問文とを対にして記憶している質問文データベ
ースと、 第2言語の質問文に応答する標準的な複数の第2言語の
応答文と、それらを翻訳した第1言語の応答文とを記憶
している応答文データベースと、 入力操作手段と、 音声入力手段と、 前記入力操作手段でユーザから入力された第1言語の質
問文を前記質問文データベースを検索し、それと対にな
っている第2言語の質問文を抽出する質問文抽出手段
と、 抽出された第2言語の質問文の出力を受けてユーザの会
話相手が第2言語の応答文を音声で入力した場合に、入
力された音声を第2言語の文字応答文として認識する音
声認識手段と、 前記音声認識手段で認識された文字応答文に類似する第
2言語の応答文と対応する第1言語の応答文とを前記応
答文データベースから抽出する応答文抽出手段と、 前記応答文抽出手段で抽出された第2言語の応答文と第
1言語の応答文と前記音声認識手段で認識された文字応
答文とを表示する表示手段とを備えることを特徴とする
通訳装置。
1. A question sentence in a first language and a second translated sentence
A question sentence database storing a pair of language question sentences, a plurality of standard second language answer sentences responding to the second language question sentence, and a first language answer sentence translated therefrom , An input operation means, a voice input means, and a first sentence input by a user in the input operation means. A question sentence extracting means for extracting a question sentence in the second language, and when the conversation partner of the user receives the output of the extracted question sentence in the second language and inputs a response sentence in the second language by voice, Voice recognition means for recognizing an input voice as a character response sentence in a second language; and a response sentence in a first language corresponding to a response sentence in a second language similar to the character response sentence recognized by the voice recognition means; From the response sentence database Response sentence extraction means; and display means for displaying a response sentence in a second language, a response sentence in a first language, and a character response sentence recognized by the voice recognition means, extracted by the response sentence extraction means. Interpreting device characterized by the above-mentioned.
【請求項2】 前記音声認識手段は、 単語標準パターンとその単語標準パターンに対応する単
語とを記憶している音声認識辞書と、 前記音声入力手段から入力された音声を分析して単語単
位のセグメントのパターンに分割する分割部と、 前記分割部で分割されたセグメントのパターンと前記音
声認識辞書に記憶されている単語標準パターンとの類似
度を計算し、類似度が所定値以上の単語標準パターンに
対応する単語を候補単語として抽出する候補単語抽出部
と、 前記候補単語抽出部で抽出された各セグメント類似度の
最大の候補単語を並べて文字応答文を生成する文字応答
文生成部とを有することを特徴とする請求項1記載の通
訳装置。
2. The speech recognition means, comprising: a speech recognition dictionary that stores a word standard pattern and a word corresponding to the word standard pattern; A division unit that divides the segment pattern into segment patterns; and calculates a similarity between the segment pattern divided by the division unit and a word standard pattern stored in the speech recognition dictionary. A candidate word extraction unit for extracting a word corresponding to the pattern as a candidate word; and a character response sentence generation unit for generating a character response sentence by arranging candidate words having the highest similarity of each segment extracted by the candidate word extraction unit. The interpreting device according to claim 1, further comprising:
【請求項3】 前記候補単語抽出部は、 抽出した候補単語が前記応答文抽出手段で抽出された応
答文を構成する単語と一致するとき、その類似度を所定
の倍率で大きくすることを特徴とする請求項2記載の通
訳装置。
3. The candidate word extracting section increases the similarity at a predetermined magnification when the extracted candidate word matches a word constituting the response sentence extracted by the response sentence extracting means. 3. The translator according to claim 2, wherein:
【請求項4】 前記応答文データベースには、応答文を
構成する単語が応答文として必須の要素であるかと、必
須の要素であるときに、その単語が他の単語に置換され
ることが予想されるかと、予想されるとき、置換が予想
される単語の意味属性とが記憶されており、 前記音声認識手段で認識された文字応答文を構成する単
語と前記類似する応答文を構成する単語とを照合し、必
須の要素を欠き、かつ、置換が予想される単語の意味属
性と異なる単語を応答文に対応する単語とするとき文字
応答文が質問の答えとして成立しないと判断する文字応
答文判断手段を備えることを特徴とする請求項1記載の
通訳装置。
4. In the response sentence database, it is expected that a word constituting a response sentence is an essential element as a response sentence, and that when the word is an essential element, the word is replaced with another word. And the semantic attribute of the word that is expected to be replaced when it is expected, and the word constituting the character response sentence recognized by the voice recognition means and the word constituting the similar response sentence are stored. A character response that determines that a character response sentence does not hold as the answer to a question when a word that lacks an essential element and has a semantic attribute different from the semantic attribute of the word that is expected to be replaced is the word corresponding to the response sentence 2. The interpreter according to claim 1, further comprising a sentence judging unit.
【請求項5】 前記応答文データベースには、応答文を
構成する単語が必須の要素であるときに、その単語を認
識できなかったときの再質問規則が記憶されており、 前記文字応答文判断手段が、文字応答文が質問の答えと
して成立しないと判断したとき、 前記再質問規則に応
じた再質問を出力する出力手段を備えることを特徴とす
る請求項4記載の通訳装置。
5. The response sentence database stores, when a word constituting the response sentence is an essential element, a re-question rule when the word cannot be recognized. The interpreting apparatus according to claim 4, further comprising an output unit that outputs a re-question in accordance with the re-question rule when the means determines that the character response sentence is not satisfied as an answer to the question.
【請求項6】 前記表示手段に表示される文字応答文を
構成する単語と前記応答文抽出手段で抽出された第2言
語の応答文を構成する単語とを比較し、一致する単語の
前記第2言語の応答文の表示属性を変更する制御手段を
備えることを特徴とする請求項1乃至5のいずれか記載
の通訳装置。
6. A word constituting a character response sentence displayed on the display means is compared with a word constituting a response sentence in a second language extracted by the response sentence extraction means, and the second word of the matching word is compared. 6. The interpreting apparatus according to claim 1, further comprising control means for changing a display attribute of a bilingual response sentence.
【請求項7】 前記応答文データベースに記憶されてい
る第1言語の応答文とその第2言語の応答文とを構成す
る対応する単語に同一の識別子を付し、 前記表示手段に表示される文字応答文を構成する単語と
前記応答文抽出手段で抽出された第2言語の応答文を構
成する単語とを比較し、一致する単語と同一の識別子が
付された前記第1言語の応答文の表示属性を変更する表
示制御手段を備えることを特徴とする請求項1乃至5の
いずれかに記載の通訳装置。
7. The same identifier is assigned to a corresponding word constituting a response sentence in a first language and a response sentence in a second language stored in the response sentence database and displayed on the display means. The words constituting the character response sentence are compared with the words constituting the response sentence in the second language extracted by the response sentence extracting means, and the response sentence in the first language to which the same identifier as the matching word is assigned The interpreting apparatus according to claim 1, further comprising a display control unit configured to change a display attribute of the interpreter.
【請求項8】 コンピュータに読取可能な記録媒体であ
って、 第1言語の質問文とそれを翻訳した第2言語の質問文と
を対にして記憶している質問文データベースと、 第2言語の質問文に応答する標準的な複数の第2言語の
応答文と、それらを翻訳した第1言語の応答文とを記憶
している応答文データベースとを予め記録し、 入力操作手段と、 音声入力手段と、 前記入力操作手段でユーザから入力された第1言語の質
問文を前記質問文データベースを検索し、それと対にな
っている第2言語の質問文を抽出する質問文抽出手段
と、 抽出された第2言語の質問文の出力を受けてユーザの会
話相手が第2言語の応答文を音声で入力した場合に、入
力された音声を第2言語の文字応答文として認識する音
声認識手段と、 前記音声認識手段で認識された文字応答文に類似する第
2言語の応答文と対応する第1言語の応答文とを前記応
答文データベースから抽出する応答文抽出手段と、 前記応答文抽出手段で抽出された第2言語の応答文と第
1言語の応答文と前記音声認識手段で認識された文字応
答文とを表示させる表示制御手段との各機能を発揮させ
るプログラムを記録した記録媒体。
8. A computer-readable recording medium, comprising: a question sentence database storing a pair of a first language question sentence and a translated second language question sentence; A response sentence database that stores a plurality of standard second-language response sentences that respond to the question sentence in question and a first-language response sentence translated from them in advance, Input means, a question sentence extracting means for searching the question sentence database for a question sentence in a first language input by a user with the input operation means, and extracting a paired question sentence in a second language; Speech recognition for recognizing the input voice as a text response sentence in the second language when the conversation partner of the user inputs the voice response in the second language in response to the output of the extracted question text in the second language Means and recognition by the voice recognition means Response sentence extracting means for extracting from the response sentence database a response sentence in a second language similar to the extracted character response sentence and a response sentence in the first language, and a second language extracted by the response sentence extracting means And a display control unit for displaying the response sentence of the first language, the response sentence of the first language, and the character response sentence recognized by the voice recognition unit.
JP25436198A 1998-09-08 1998-09-08 Interpreting device and recording medium storing program for exerting functions of interpreting device Expired - Fee Related JP3993319B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25436198A JP3993319B2 (en) 1998-09-08 1998-09-08 Interpreting device and recording medium storing program for exerting functions of interpreting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25436198A JP3993319B2 (en) 1998-09-08 1998-09-08 Interpreting device and recording medium storing program for exerting functions of interpreting device

Publications (2)

Publication Number Publication Date
JP2000090087A true JP2000090087A (en) 2000-03-31
JP3993319B2 JP3993319B2 (en) 2007-10-17

Family

ID=17263930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25436198A Expired - Fee Related JP3993319B2 (en) 1998-09-08 1998-09-08 Interpreting device and recording medium storing program for exerting functions of interpreting device

Country Status (1)

Country Link
JP (1) JP3993319B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003151081A (en) * 2001-11-08 2003-05-23 Denso Corp Taxi reservation system, reservation terminal and on- vehicle unit
KR100389451B1 (en) * 1999-10-13 2003-06-27 주식회사 코스모탄 Apparatus For Study Aid Using Replay of a Stored Question/Answer Sentence
US6721704B1 (en) * 2001-08-28 2004-04-13 Koninklijke Philips Electronics N.V. Telephone conversation quality enhancer using emotional conversational analysis
JP2008158985A (en) * 2006-12-26 2008-07-10 Sharp Corp Electronic equipment and control method therefor
US7548845B2 (en) 2005-12-08 2009-06-16 International Business Machines Corporation Apparatus, method, and program product for translation and method of providing translation support service
US7752051B2 (en) * 2004-10-08 2010-07-06 Panasonic Corporation Dialog supporting apparatus that selects similar dialog histories for utterance prediction
US10311147B2 (en) 2016-03-14 2019-06-04 Kabushiki Kaisha Toshiba Machine translation apparatus and machine translation method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100389451B1 (en) * 1999-10-13 2003-06-27 주식회사 코스모탄 Apparatus For Study Aid Using Replay of a Stored Question/Answer Sentence
US6721704B1 (en) * 2001-08-28 2004-04-13 Koninklijke Philips Electronics N.V. Telephone conversation quality enhancer using emotional conversational analysis
JP2003151081A (en) * 2001-11-08 2003-05-23 Denso Corp Taxi reservation system, reservation terminal and on- vehicle unit
US7752051B2 (en) * 2004-10-08 2010-07-06 Panasonic Corporation Dialog supporting apparatus that selects similar dialog histories for utterance prediction
US7548845B2 (en) 2005-12-08 2009-06-16 International Business Machines Corporation Apparatus, method, and program product for translation and method of providing translation support service
JP2008158985A (en) * 2006-12-26 2008-07-10 Sharp Corp Electronic equipment and control method therefor
US10311147B2 (en) 2016-03-14 2019-06-04 Kabushiki Kaisha Toshiba Machine translation apparatus and machine translation method

Also Published As

Publication number Publication date
JP3993319B2 (en) 2007-10-17

Similar Documents

Publication Publication Date Title
US11049493B2 (en) Spoken dialog device, spoken dialog method, and recording medium
US9263037B2 (en) Interactive manual, system and method for vehicles and other complex equipment
KR101694286B1 (en) Apparatus and method for providing two-way automatic interpretation and tranlating service
US9484034B2 (en) Voice conversation support apparatus, voice conversation support method, and computer readable medium
KR20190109614A (en) Method and apprartus for chatbots in customer service analyzing hierarchical user expression and generating responses
WO2016067418A1 (en) Conversation control device and conversation control method
US20060247932A1 (en) Conversation aid device
JP4930584B2 (en) Speech synthesis apparatus, speech synthesis system, language processing apparatus, speech synthesis method, and computer program
JP2015176099A (en) Dialog system construction assist system, method, and program
US20060129393A1 (en) System and method for synthesizing dialog-style speech using speech-act information
KR102372069B1 (en) Free dialogue system and method for language learning
KR102146433B1 (en) Method for providing context based language learning service using associative memory
Jamil Design and implementation of an intelligent system to translate arabic text into arabic sign language
KR20190123093A (en) System and Method for Automated Emoticon Recommendation based on Emotion Ontology
JP2000200273A (en) Speaking intention recognizing device
JP3993319B2 (en) Interpreting device and recording medium storing program for exerting functions of interpreting device
JPH10124293A (en) Speech commandable computer and medium for the same
JP5099367B2 (en) Request content identification system, request content identification method and program in natural language
WO2019003395A1 (en) Call center conversational content display system, method, and program
JP4079275B2 (en) Conversation support device
KR20020084302A (en) Apparatus of extract and transmission of image using the character message, its method
KR20160138613A (en) Method for auto interpreting using emoticon and apparatus using the same
JP2006301967A (en) Conversation support device
JP2018159729A (en) Interaction system construction support device, method and program
KR102098377B1 (en) Method for providing foreign language education service learning grammar using puzzle game

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070522

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070726

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100803

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110803

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110803

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120803

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130803

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees