JPH09292971A - Translation device - Google Patents

Translation device

Info

Publication number
JPH09292971A
JPH09292971A JP10674696A JP10674696A JPH09292971A JP H09292971 A JPH09292971 A JP H09292971A JP 10674696 A JP10674696 A JP 10674696A JP 10674696 A JP10674696 A JP 10674696A JP H09292971 A JPH09292971 A JP H09292971A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
speech
part
user
supplied
microphone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10674696A
Other languages
Japanese (ja)
Inventor
Satoshi Fujimura
Kazuo Ishii
和夫 石井
聡 藤村
Original Assignee
Sony Corp
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Abstract

PROBLEM TO BE SOLVED: To improve the convenience of a transmission device by plurally providing speech inputting devices.
SOLUTION: When a user A speaks in Japanese, the speech is supplied to a speech recognition part 8 through a microphone 1A. The speech inputted from the microphone 1A is regarded as Japanese, speech-recognized by the part 8 and translated into English by a translation part 9. Then, a synthesized speech corresponding to an English translated sentence obtained as the result is generated by a speech synthetic part 10 and supplied for a speaker 2B used by a user B to be outputted. When English is spoken by the user on the other hand, the speech is supplied for the part 8 through the microphone 1B. The speech inputted from the microphone 1B is regarded as English, speech- recognized by the part 8 and translated to Japanese by the part 9. Then a synthesized speech corresponding to a Japanese equivalent sentence obtained as the result is generated by the part 10 and supplied for the speaker 2A user by the user A to be outputted.
COPYRIGHT: (C)1997,JPO

Description

【発明の詳細な説明】 DETAILED DESCRIPTION OF THE INVENTION

【0001】 [0001]

【発明の属する技術分野】本発明は、翻訳装置に関する。 The present invention relates to relates to a translation apparatus. 特に、例えば携帯に便利な翻訳装置に関する。 In particular, for example, to a convenient translation apparatus to carry.

【0002】 [0002]

【従来の技術】図11は、従来の携帯型の翻訳装置(音声翻訳機)の一例の構成を示している。 BACKGROUND ART FIG. 11 shows an example of a configuration of a conventional portable translation apparatus (speech translation apparatus). この翻訳装置においては、例えば、日本語の入力文を、音声により入力すると、その入力文を英語などに翻訳した翻訳文に対応する合成音が出力されるとともに、その逆に、英語の入力文を、音声により入力すると、それを日本語に翻訳した翻訳文に対応する合成音が出力されるようになされている。 In this translation system, for example, an input Japanese sentence, if you enter a voice, the input sentence with such a synthesized sound corresponding to the translation Translated English is output, and vice versa, the input sentence in English and when inputted by speech, synthesized speech corresponding to the translation to translate it into Japanese is adapted to be outputted.

【0003】即ち、マイク(マイクロフォン)1Aは、 [0003] In other words, the microphone (microphone) 1A is,
そこに音声が入力されると、その音声を、電気信号としての音声信号に変換し、音声認識部8に出力するようになされている。 When there speech is input into, the audio, it converts the audio signal as an electric signal, and to output to the speech recognition unit 8. スピーカ2Aは、音声合成部10より供給される合成音を出力するようになされている。 Speaker 2A is adapted to output the synthesized sound supplied from the speech synthesis unit 10.

【0004】音声認識部8は、制御部11の制御の下、 [0004] The speech recognition unit 8 under the control of the control unit 11,
マイク1Aからの音声信号に基づき、例えばHMM(Hi Based on the audio signal from the microphone 1A, for example, HMM (Hi
dden Markov Model)法その他の所定の音声認識アルゴリズムにしたがって音声認識を行い、その音声認識結果として、マイク1Aに入力された音声に対応する、例えばテキストデータなどを出力するようになされている。 Performs speech recognition according DDEN Markov Model) method and other predetermined speech recognition algorithm, as a speech recognition result, it is adapted to correspond to the voice input to the microphone 1A, for example, outputs, etc. text data.
このテキストデータは、音声認識部8から翻訳部9に供給されるようになされている。 The text data is adapted to be supplied to the translation unit 9 from the speech recognition unit 8.

【0005】翻訳部9は、制御部11の制御の下、音声認識部8からの所定の言語のテキストデータを、それと異なる言語に翻訳し、その結果得られる翻訳文(テキストデータなど)を、音声合成部10に出力するようになされている。 [0005] translation unit 9, under the control of the control unit 11, the text data of the predetermined language from the speech recognition unit 8, it and translated into different languages, the resulting translation (such as text data), and to output to the speech synthesis unit 10. 音声合成部10は、制御部11の制御にしたがい、翻訳部9からの翻訳文に対応する合成音を生成し、スピーカ2Aに供給するようになされている。 Speech synthesis unit 10, under the control of the control unit 11 generates a synthesized sound corresponding to the translation from the translation unit 9, and supplies to the speaker 2A.

【0006】制御部11は、キースイッチ部14の操作に対応して、音声認識部8、翻訳部9、および音声合成部10を制御するようになされている。 [0006] Control unit 11, in response to operation of the key switch section 14 is adapted to control the speech recognition unit 8, the translation unit 9, and the speech synthesis unit 10. さらに、制御部11は、LCD(液晶ディスプレイ)表示部12を制御することにより、所定の情報を表示させるようになされている。 Further, the control unit 11 controls the LCD (liquid crystal display) display portion 12, are made so as to display predetermined information. また、制御部11には、メモリカード13が装着可能になされており、制御部11は、このメモリカード13に記憶されたデータを、音声認識部8、翻訳部9、または音声合成部10に供給することで、それぞれに音声認識処理、翻訳処理、または音声合成処理を行わせるようになされている。 The control unit 11, and the memory card 13 is made to be attached, the control unit 11, the data stored in the memory card 13, the voice recognition unit 8, the translation unit 9 or the speech synthesis unit 10, by supplying the speech recognition process each, are made translation process or to carry out the speech synthesis process.

【0007】メモリカード13には、所定の言語L1およびそれと異なる言語L2による音声を音声認識するために必要なデータ、言語L1とL2との間の翻訳を行うために必要なデータ、並びに言語L1およびL2による合成音を生成するために必要なデータ(以下、適宜、これらのデータすべてを含めて言語データという)が記憶されている。 [0007] the memory card 13, data necessary for the translation between the data required for recognizing speech a speech in a predetermined language L1 and therewith different languages ​​L2, language L1 and L2, and the language L1 and data necessary for generating synthetic speech by L2 (hereinafter referred to as the language of the data, including all of these data) is stored. 従って、メモリカード13を他のものと交換することによって、種々の言語の音声認識および音声合成、並びに種々の言語間の翻訳を行うことができるようになされている。 Thus, by exchanging the memory card 13 and others, it is made to be able to speech recognition and speech synthesis of a variety of languages, and the translation between the various language performed.

【0008】キースイッチ部14は、制御部11に対し、所定の指令を与えるときに操作されるようになされている。 [0008] The key switch section 14, to the control unit 11, is adapted to be operated when giving a predetermined command.

【0009】次に、例えば、日本人のユーザ(日本語の話者)Aと、アメリカ人のユーザ(英語の話者)Bとが、この翻訳装置を用いて会話を行う場合を例に、その動作について説明する。 [0009] Next, for example, a user (Japanese speaker) A Japanese, and Americans of the user (English speakers) B is, a case in which the conversation by using the translation device as an example, for its operation will be described. 従って、メモリカード13には、日本語および英語の言語データが記憶されているものとする。 Therefore, in the memory card 13, it is assumed that the Japanese and English language data is stored.

【0010】まず、ユーザAが、ユーザBに対して発話を行う場合においては、例えば、ユーザAは、キースイッチ部14(言語選択ボタン)を、日本語の入力文を英語に翻訳するように操作する。 [0010] First, in the case where the user A makes a speech to the user B is, for example, the user A, the key switch unit 14 (language selection button), to translate the input sentence of Japanese to English Manipulate. この操作に対応する操作信号は、制御部11において受信され、制御部11は、 Operation signal corresponding to this operation is received by the control unit 11, the control unit 11,
この操作信号を受信すると、音声認識部8を日本語の音声を音声認識するように、翻訳部9を日本語を英語に翻訳するように、音声合成部10を英語の合成音を生成するように、それぞれ制御する。 When receiving the operation signal, the voice of the Japanese voice recognition unit 8 to recognize speech, a translation unit 9 to translate Japanese into English, to generate the synthesized sound of the English speech synthesis unit 10 to, to control, respectively.

【0011】その後、ユーザAが、マイク1Aに対して、日本語による発話を行うと、その音声は、マイク1 [0011] Thereafter, the user A, with respect to the microphone 1A, when performing speech in Japanese, the audio, the microphone 1
Aを介することにより音声信号とされ、音声認識部8に供給される。 Is an audio signal by passing through the A, is supplied to the voice recognition unit 8. 音声認識部8では、マイク1Aからの音声信号に基づいて音声認識が行われ、これにより、マイク1Aに入力された日本語の音声が認識される。 The speech recognition unit 8, the speech recognition is performed based on the sound signal from the microphone 1A, thereby, in Japanese voice input to the microphone 1A is recognized. そして、 And,
その音声認識の結果得られるテキストデータは、翻訳部9に供給される。 The text data obtained as a result of speech recognition is supplied to the translation unit 9.

【0012】翻訳部9では、音声認識部8からの日本語のテキストデータが英語に翻訳され、その結果得られる英語の翻訳文が音声合成部10に供給される。 [0012] In the translation unit 9, Japanese text data from the speech recognition unit 8 is translated into English, a translation of the English obtained as a result is supplied to the speech synthesis unit 10. 音声合成部10では、翻訳部9からの翻訳文に対応した合成音(英語の合成音)が生成され、スピーカ2Aに供給される。 The speech synthesis unit 10, the synthesized sound corresponding to the translation from the translation unit 9 (in English synthesized sound) is generated and supplied to the speaker 2A. これにより、スピーカ2Aからは、ユーザAが発した日本語の音声を英語に翻訳した合成音が出力される。 Thus, from the speaker 2A, synthesized speech obtained by translating Japanese voice emitted by the user A in English is output.

【0013】次に、ユーザBが、ユーザAに対して発話を行う場合においては、例えば、ユーザBは、キースイッチ部14を、英語の入力文を日本語に翻訳するように操作する。 [0013] Next, the user B, in the case of performing a speech to the user A is, for example, the user B, the key switch unit 14, the operation to translate the input sentence of English to Japanese. この操作に対応する操作信号は、制御部11 Operation signal corresponding to this operation, the control unit 11
において受信され、制御部11は、この操作信号を受信すると、音声認識部8を英語の音声を音声認識するように、翻訳部9を英語を日本語に翻訳するように、音声合成部10を日本語の合成音を生成するように、それぞれ制御する。 Is received at the control unit 11 receives the operation signal, the voice of the English speech recognition unit 8 to recognize speech, a translation unit 9 to translate English into Japanese, the speech synthesis unit 10 so as to produce a Japanese synthetic sound, controls, respectively.

【0014】その後、ユーザBが、マイク1Aに対して、英語による発話を行うと、その音声は、マイク1A [0014] Then, the user B, and a microphone 1A, when performing speech in English, the speech microphone 1A
を介することにより音声信号とされ、音声認識部8に供給される。 Is an audio signal by through, is supplied to the voice recognition unit 8. 音声認識部8では、マイク1Aからの音声信号に基づいて音声認識が行われ、これにより、マイク1 The speech recognition unit 8, the speech recognition performed based on the sound signal from the microphone 1A, thereby, the microphone 1
Aに入力された英語の音声が認識される。 English voice that is input to the A is recognized. そして、その音声認識の結果得られるテキストデータは、翻訳部9に供給される。 Then, text data obtained as a result of the speech recognition is supplied to the translation unit 9.

【0015】翻訳部9では、音声認識部8からの英語のテキストデータが日本語に翻訳され、その結果得られる日本語の翻訳文が音声合成部10に供給される。 [0015] In the translation unit 9, English text data from the speech recognition unit 8 is translated into Japanese, a translation of the Japanese obtained as a result is supplied to the speech synthesis unit 10. 音声合成部10では、翻訳部9からの翻訳文に対応した合成音(日本語の合成音)が生成され、スピーカ2Aに供給される。 The speech synthesis unit 10, the synthesized sound corresponding to the translation from the translation unit 9 (synthesized sound of Japanese) is generated and supplied to the speaker 2A. これにより、スピーカ2Aからは、ユーザBが発した英語の音声を日本語に翻訳した合成音が出力される。 Thus, from the speaker 2A, synthesized sound translated English sound produced by the user B in Japanese is output.

【0016】なお、音声認識部8において得られる音声の認識結果および翻訳部9において得られる翻訳文は、 [0016] Incidentally, the translation obtained in the recognition result and translation unit 9 of the speech obtained in speech recognition unit 8,
制御部11にも供給されるようになされており、制御部11は、この認識結果および翻訳文を受信すると、LC To the control unit 11 is adapted to be supplied, the control unit 11 receives the recognition result and translation, LC
D表示部12に供給して表示させるようになされている。 Is supplied to the D display section 12 are made so as to display. 従って、この場合、LCD表示部12では、マイク1Aに入力された音声認識結果と、それを翻訳した翻訳結果とが同時に表示される。 Therefore, in this case, the LCD display unit 12, a speech recognition result input to the microphone 1A, translation result obtained by translating it are simultaneously displayed.

【0017】次に、図12は、従来の携帯型の翻訳装置の他の一例の構成を示している。 Next, FIG. 12 shows another example of the configuration of a conventional portable translation apparatus. 液晶表示部(LCD The liquid crystal display unit (LCD
(液晶ディスプレイ))101は、所定の情報を表示するようになされている。 (Liquid Crystal Display)) 101 is adapted to display predetermined information. カーソルキー102は、液晶表示部101に表示されたカーソルを移動させるときや、 Cursor keys 102, and when moving the cursor displayed on the liquid crystal display unit 101,
液晶表示部101の表示画面をスクロールさせるときなどに操作される。 It is operated, for example, when scrolling the display screen of the liquid crystal display unit 101. 電源スイッチ104は、ONスイッチ104aおよびOFFスイッチ104bで構成され、それぞれは、装置の電源をオンまたはオフするときに操作される。 Power switch 104 is composed of ON switches 104a and OFF switch 104b, each of which is operated to turn on or off the device. アルファベットキー105は、アルファベットを入力するときに操作される。 Alphabet key 105 is operated to enter the alphabet. 決定キー106は、アルファベットキー105を操作することにより入力された文字列を確定したり、また、カーソルキー102を操作することにより選択した項目を確定したりするときに操作される。 Decision key 106, or to confirm the character string inputted by operating the alphabetic keys 105, also is operated to or confirm the selected item by operating the cursor key 102. ファンクション(機能)キー107には、各種の機能が割り当てられており、その機能を実行させるときに操作される。 The function (function) key 107, various functions are assigned, it is operated to perform its functions.

【0018】次に、以上のように構成される翻訳装置の動作について説明する。 [0018] Next, the operation of the configured translation apparatus as described above will be described. なお、ここでは、翻訳装置は、 Here, the translation device,
例えば、英単語を入力すると、その英単語の意味を日本語で記述したもの(英単語を日本語に翻訳したもの)を出力するようになされているものとする。 For example, if you enter English words, it is assumed that is adapted to output describes the meaning of the English word in Japanese (a translation of the English word into Japanese).

【0019】ユーザは、まず最初に、ONスイッチ10 [0019] The user, first of all, ON switch 10
4aを操作することにより、装置の電源をオンにする。 By operating the 4a, to turn on the device.
その後、ユーザは、アルファベットキー105を操作することにより、意味を調べようとする英単語を入力する。 Thereafter, the user, by operating the alphabet key 105, to enter the English word to be examined the meaning. 即ち、例えば、英単語「dog」の意味を調べようとするときは、アルファベットキー105のうちの「d」、「o」、「g」の文字に対応するキーを順次操作することで、「dog」を入力する。 That is, for example, when trying to examine the meaning of the English word "dog" is, "d" of the alphabet key 105, "o", by sequentially operating the key corresponding to the character of the "g", " to enter a dog ".

【0020】アルファベットキー105を操作することにより入力された文字は、液晶表示部101に表示されるようになされており、従って、この場合、液晶表示部101には、「dog」が表示される。 [0020] The input character by operating the alphabetic keys 105, are adapted to be displayed on the liquid crystal display unit 101, therefore, in this case, the liquid crystal display unit 101, "dog" is displayed .

【0021】ユーザは、液晶表示部101の表示を見ることで、意味を調べようとする英単語「dog」が正しく入力されたことを確認し、その後、決定キー106を操作する。 [0021] The user, by looking at the display of the liquid crystal display unit 101, make sure that the English word you want to investigate the meaning "dog" has been entered correctly, then, to manipulate the enter key 106.

【0022】決定キー106が操作されると、翻訳装置では、液晶表示部101に表示された英単語「dog」 [0022] When the determination key 106 is operated, in the translation device, English words that are displayed on the liquid crystal display unit 101 "dog"
の意味(「dog」の翻訳結果)が、その内蔵する英和辞書(電子辞書)(図示せず)から検索され、液晶表示部101に表示される。 Meaning of (translation result of the "dog") is retrieved from the English-Japanese dictionary its internal (electronic dictionary) (not shown), is displayed on the liquid crystal display unit 101.

【0023】以上のようにして、ユーザにより入力された英単語の意味が表示される。 [0023] As described above, the meaning of the English word that has been input by the user is displayed. なお、この場合、英単語の意味が、液晶表示部101の1画面に表示しきれないときには、カーソルキー102を操作して、画面をスクロールさせることにより、その全体を見ることができるようになされている。 In this case, the meaning of the English words, when can not be displayed on one screen of the liquid crystal display unit 101, by operating the cursor key 102, by scrolling the screen, made to be able to see the entire ing.

【0024】 [0024]

【発明が解決しようとする課題】ところで、図11に示した従来の翻訳装置においては、以下のような課題があった。 [SUMMARY OF THE INVENTION Incidentally, in the conventional translation apparatus shown in FIG. 11, has the following problems.

【0025】即ち、日本語から英語、または英語から日本語のうちのいずれの翻訳を行うかを制御部11に認識させるために、日本人であるユーザAが発話するとき、 [0025] In other words, the English from Japanese or whether to perform any of the translation of the Japanese from English in order to be recognized by the control unit 11, when the user A, which is the Japanese is spoken,
およびアメリカ人であるユーザBが発話するときに、その都度、キースイッチ部14を操作する必要があった。 And when the user B utters an American, in each case, it was necessary to operate the key switch unit 14.
さらに、そのために、ユーザAとBとの間で、翻訳装置を発話をする側に手渡しする必要もあり、このようなことを、発話を行うたびに行うのは面倒であった。 Furthermore, in order that, between the user A and B, must also be handed side to the speech translation apparatus, such that, were troublesome performed whenever performing speech.

【0026】そこで、制御部11に、マイク1Aに入力された音声の言語を、自動的に識別(自動言語識別)させる方法があるが、言語の識別は困難で、正しい識別結果が得られるとは限らなかった。 [0026] Therefore, the control unit 11, the language of the voice input to the microphone 1A, there is a method to automatically identify (automatic language identification), the identification of the language is difficult, if correct identification results not necessarily.

【0027】また、翻訳装置を、ユーザAおよびBがそれぞれ携帯していれば、上述の課題を解決することができるが、例えば、ユーザAが、ユーザBの国に行く場合において、ユーザAが、翻訳装置を携帯していくことは考えられるが、ユーザBが、自国において、翻訳装置を携帯していることは、現実的には考えにくい。 Further, the translation apparatus, if user A and B carry respectively, can solve the problems described above, for example, user A, when going to the country of the user B, the user A , it is considered to continue to cellular translation apparatus, the user B, the country, it is portable translation apparatus, realistically unlikely.

【0028】そこで、例えば、ユーザAが、ユーザBの国に行くときに、翻訳装置を2台携帯していく方法があるが、翻訳装置が携帯型に構成されているといっても、 [0028] Thus, for example, a user A is, when you go to the country of the user B, there is a method that will carry two translation devices, to say that the translation device is configured in a portable,
それを2台携帯するのは面倒であり、さらに、この場合、ユーザAの経済的負担も大になる。 It is is a cumbersome to carry two, further, in this case, the economic burden of the user A also becomes large.

【0029】一方、図12に示した従来の翻訳装置においては、以下のような課題があった。 On the other hand, in the conventional translation apparatus shown in FIG. 12, it has the following problems.

【0030】即ち、このような翻訳装置を、例えば路上などで使用する場合には、ユーザは、左手または右手のうちのいずれか一方の手で装置を持ち、LCD101を見ながら、他方の手で装置を操作する必要があった。 [0030] That is, such a translation apparatus, for example when used in such streets, the user has a device with one hand of the left hand or right hand, while watching the LCD 101, with the other hand there was a need to operate the equipment. このため、装置の操作を、LCD101以外のものを見ながら行うことは、そのものと、LCD101との間での視線の移動が必要となり、ユーザに煩わしさを感じさせる課題があった。 Therefore, the operation of the apparatus, be performed while looking at something other than LCD 101 includes a itself, requires movement of the line of sight between the LCD 101, there is a problem feel troublesome to the user. さらに、装置の操作を、筆記用具その他の物を持ちながら行うのは困難であった。 Furthermore, the operation of the apparatus, it is difficult to conduct while holding the writing instrument other things.

【0031】そこで、図11に示した翻訳装置における場合と同様に、装置にマイクおよびスピーカを設け、マイクから意味を調べようとする英単語(日本語に翻訳しようとする英単語)を入力するようにするとともに、その英単語の意味を、スピーカから合成音で出力させるようにする方法がある。 [0031] Therefore, as in the case of the translation apparatus shown in FIG. 11, device microphone and speaker provided to input the English word (English word to be translated into Japanese) to be examined meaning from the microphone while so, there is a method of the meaning of the English words, so as to output the synthesized sound from the speaker.

【0032】しかしながら、装置自体にマイクおよびスピーカを設けた場合には、マイクに混入する雑音を低減するために、ユーザは、装置に設けられたマイクに口を近づけて(あるいは、装置を近づけて)発話を行う必要があり、面倒であった。 [0032] However, in the case of providing the microphone and speaker in the apparatus itself, in order to reduce noise mixed in the microphone, the user may close the mouth to the microphone provided in the device (or close the device ) it is necessary to carry out the speech, it was troublesome. さらに、環境雑音のレベルが大きい場合には、装置に設けられたスピーカに耳を近づけて(あるいは、装置を近づけて)合成音を聴く必要があり、やはり面倒であった。 Furthermore, if the level of ambient noise is large, close the ear speaker provided on the device (or closer to the device) it is necessary to listen to the synthesized speech was also troublesome.

【0033】本発明は、このような状況に鑑みてなされたものであり、翻訳装置の利便性を向上させることができるようにするものである。 [0033] The present invention has been made in view of such circumstances, it is desirable to make it possible to improve the convenience of the translation apparatus.

【0034】 [0034]

【課題を解決するための手段】請求項1に記載の翻訳装置は、音声を入力する入力手段が、複数設けられていることを特徴とする。 Means for Solving the Problems] Translation device according to claim 1, the input means for inputting a voice, characterized in that provided in plural.

【0035】請求項10に記載の翻訳装置は、入出力部と本体とが、分離して設けられていることを特徴とする。 The translation apparatus according to claim 10, input and output unit and the main body, characterized in that provided separately.

【0036】請求項1に記載の翻訳装置においては、音声を入力する入力手段が、複数設けられている。 [0036] In the translation apparatus according to claim 1, the input means for inputting a voice is provided in plurality.

【0037】請求項10に記載の翻訳装置においては、 [0037] In the translation apparatus of claim 10,
入出力部と本体とが、分離して設けられている。 Output unit and the main body, are separately provided.

【0038】 [0038]

【発明の実施の形態】以下に、本発明の実施例を説明するが、その前に、特許請求の範囲に記載の発明の各手段と以下の実施例との対応関係を明らかにするために、各手段の後の括弧内に、対応する実施例(但し、一例)を付加して、本発明の特徴を記述すると、次のようになる。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter is a description of examples of the present invention, prior to, in order to clarify the correspondence between the following embodiments and the means of the invention described in the claims , in parentheses after each means, corresponding examples (but one example) by adding, when describing the features of the present invention is as follows.

【0039】即ち、請求項1に記載の翻訳装置は、音声を入力する入力手段(例えば、図1や図4に示すマイク1Aおよび1B、図2に示すマイク24、図3に示すマイク33など)と、入力手段に入力された音声を音声認識する音声認識手段(例えば、図1や図4に示す音声認識部8など)と、音声認識手段の音声認識結果を、入力手段に入力された音声の言語と異なる言語に翻訳する翻訳手段(例えば、図1や図4に示す翻訳部9など)と、 [0039] That is, the translation apparatus of claim 1, an input means for inputting a voice (e.g., microphone 1A and 1B shown in FIG. 1 and FIG. 4, a microphone 24 shown in FIG. 2, a microphone 33 shown in FIG. 3 and), and the speech recognizing speech recognition means speech input to the input means (e.g., such as voice recognition unit 8 shown in FIGS. 1 and 4), the speech recognition result of the speech recognition means, input to the input means and translating means for translating different languages ​​and audio languages ​​(for example, translation unit 9 shown in FIGS. 1 and 4),
翻訳手段の翻訳結果を出力する出力手段(例えば、図1 Output means for outputting the translation result of the translation means (e.g., Fig. 1
や図4に示すスピーカ2Aおよび2B、図1や図4に示すLCD表示部12、図2に示すスピーカ22、図3に示すスピーカ31など)とを備える翻訳装置であって、 Speaker 2A and 2B shown in or Fig. 4, LCD display unit 12 shown in FIG. 1 and FIG. 4, a speaker 22 shown in FIG. 2, a translation apparatus and a speaker 31) shown in FIG. 3,
入力手段が、複数設けられていることを特徴とする。 Input means, characterized in that provided in plural.

【0040】請求項3に記載の翻訳装置は、翻訳手段の翻訳結果に対応する合成音を生成する生成手段(例えば、図1や図4に示す音声合成部10など)をさらに備え、出力手段が、生成手段により生成される合成音を出力することを特徴とする。 The translation apparatus according to claim 3, further comprising a generation means for generating a composite sound corresponding to the translation result of the translation means (e.g., a speech synthesis unit 10 shown in FIG. 1 and FIG. 4), output means but and outputs the synthesized sound generated by the generating means.

【0041】請求項7に記載の翻訳装置は、所定の端末との通信を制御する通信制御手段(例えば、図4に示す電話部43など)をさらに備えることを特徴とする。 The translation apparatus according to claim 7, the communication control means for controlling communication with the prescribed terminal (for example, a telephone unit 43 shown in FIG. 4) and further comprising a.

【0042】請求項9に記載の翻訳装置は、情報を再生する再生手段(例えば、図4に示すMD(ミニディスク(商標))部45など)をさらに備え、出力手段が、再生手段により再生される情報も出力することを特徴とする。 The translation apparatus according to claim 9, reproducing means for reproducing the information (e.g., MD shown in FIG. 4 (a mini disk (trademark)) 45) further comprising a output means, reproduced by the reproducing means the information also and outputs.

【0043】請求項10に記載の翻訳装置は、音声を入力する入力手段(例えば、図5乃至図10に示すマイク54など)と、所定の情報に対応する合成音を出力する出力手段(例えば、図5乃至図10に示すスピーカ53 The translation apparatus according to claim 10, an input means for inputting speech (e.g., a microphone 54 shown in FIGS. 5 to 10), output means for outputting the synthesized sound corresponding to the predetermined information (e.g. , a speaker 53 shown in FIGS. 5 to 10
など)とを有する入出力部と、入力手段に入力された音声を音声認識する音声認識手段(例えば、図6に示す音声認識回路62など)と、音声認識手段の音声認識結果を、入力手段に入力された音声の言語と異なる言語に翻訳する翻訳手段(例えば、図6に示すCPU65など) Output section having a like), the speech recognizing speech recognition means speech input to the input means (e.g., a voice recognition circuit 62) shown in FIG. 6, the speech recognition result of the speech recognition means, the input means translation means for translating the language different from the language of the speech input (e.g., such as CPU65 shown in FIG. 6)
と、翻訳手段により出力される翻訳結果に対応する合成音を生成し、出力手段に供給する生成手段(例えば、図6に示す音声合成回路68など)とを有する本体とを備え、入出力部と本体とが、分離して設けられていることを特徴とする。 If, it generates a synthesized sound corresponding to the translation result output by the translation means, generating means to the output means (e.g., a speech synthesis circuit 68 shown in FIG. 6) and a body having a input and output unit and the body, characterized in that are provided separately.

【0044】なお、勿論この記載は、各手段を上記したものに限定することを意味するものではない。 It should be noted, of course this description is not meant to be limited to the above respective means.

【0045】図1は、本発明を適用した携帯型の翻訳装置の第1実施例の構成を示している。 [0045] Figure 1 shows the configuration of a first embodiment of a portable translation apparatus according to the present invention. なお、図中、図1 It should be noted that, in the figure, as shown in FIG. 1
1における場合と基本的機能が同様の部分については、 The same parts may basically functions in 1,
同一の符号を付してあり、以下では、その説明は、適宜省略する。 It is denoted by the same reference numerals, and description thereof will be omitted below as appropriate.

【0046】即ち、この実施例においては、マイク1A [0046] That is, in this embodiment, a microphone 1A
またはスピーカ2Aが、スイッチ3の端子3aまたはスイッチ4の端子4aにそれぞれ接続されており、従って、マイク1Aまたはスピーカ2Aは、スイッチ3または4を介して、音声認識部8または音声合成部10とそれぞれ接続されている。 Or speaker 2A, are connected respectively to the terminals 4a of the terminal 3a or switch 4 of switch 3, therefore, a microphone 1A or loudspeaker 2A via the switch 3, or 4, the voice recognition unit 8 or the speech synthesis section 10 They are respectively connected. また、スイッチ3の端子3bおよびスイッチ4の端子4bは、コネクタ(ヘッドセット用コネクタ)7Aに接続されている。 The terminal 3b and the terminal 4b of the switch 4 of switch 3, the connector is connected to the (headset connector) 7A.

【0047】さらに、この実施例においては、マイク1 [0047] Further, in this embodiment, the microphone 1
Aまたはスピーカ2Aの他のマイクまたはスピーカとして、マイク1Bまたはスピーカ2Bがそれぞれ設けられている。 Other microphone or speaker A or speaker 2A, a microphone 1B or speaker 2B, respectively. このマイク1Bまたはスピーカ2Bも、マイク1Aまたはスピーカ2Aと同様にして、それぞれ音声認識部8または音声合成部10に接続されている。 The microphone 1B or speaker 2B also, similarly to the microphone 1A or loudspeaker 2A, are respectively connected to the speech recognition unit 8 or the speech synthesis section 10. 即ち、 In other words,
マイク1Bまたはスピーカ2Bは、スイッチ5の端子5 Microphone 1B or speaker 2B, the terminal 5 of the switch 5
aまたはスイッチ6の端子6aとそれぞれ接続されており、スイッチ5または6は、音声認識部8または音声合成部10とそれぞれ接続されている。 They are respectively connected to the terminals 6a of a or switch 6, the switch 5 or 6 are connected with the speech recognition unit 8 or the speech synthesis section 10. また、スイッチ5 In addition, the switch 5
の端子5bおよびスイッチ6の端子6bは、コネクタ(ヘッドセット用コネクタ)7Bに接続されている。 Terminal 5b and the terminal 6b of the switch 6, the connector is connected to the (headset connector) 7B.

【0048】以上のように、音声の入力を行うためのマイクと、合成音の出力を行うためのスピーカとが、複数設けられている。 [0048] As described above, a microphone for inputting voice, and a speaker for performing the output synthesized speech, multiply provided.

【0049】コネクタ7Aおよび7Bには、外部のマイクから音声を入力し、また、外部のスピーカに音声を出力するときに、そのマイク、スピーカが接続されるようになされている。 [0049] connectors 7A and 7B, enter the voice from the outside of the microphone, also when outputting audio to an external speaker, the microphone, are adapted to the speaker is connected. なお、コネクタ7Aまたは7Bに、マイクおよびスピーカが外部から接続されたときには、通常は端子3a乃至6aを選択しているスイッチ3乃至6 Incidentally, the connector 7A or 7B, when the microphone and speaker are connected externally, usually to switch 3 selects the terminal 3a to 6a 6
は、端子3b乃至6bを選択するようになされており、 Is adapted to select a terminal 3b to 6b,
これにより、外部のマイクまたはスピーカが、音声認識部8または音声合成部10とそれぞれ電気的に接続されるようになされている。 Thus, an external microphone or speakers, are made so that each speech recognition unit 8 or the speech synthesis unit 10 are electrically connected.

【0050】次に、図11における場合と同様に、日本語の話者としてのユーザAと、英語の話者としてのユーザBとが、この翻訳装置を用いて会話を行う場合を例に、その動作について説明する。 Next, as in FIG. 11, the user A as Japanese speaker, and the user B as English speakers, a case where a conversation using the translation apparatus as an example, for its operation will be described. なお、ここでは、例えば、マイク1Aおよびスピーカ2AをユーザAが、マイク1Bおよびスピーカ2BをユーザBが使用するものとする。 Here, for example, user A microphone 1A and speaker 2A is assumed to use a microphone 1B and the speaker 2B user B.

【0051】まず、ユーザAまたはBは、キースイッチ部14を操作し、これにより、マイク1Aおよびスピーカ2Aを、日本語の入出力用として設定するとともに、 [0051] First, the user A or B, operates the key switch unit 14, thereby, a microphone 1A and speaker 2A, with which to set the Japanese input and output,
マイク1Bおよびスピーカ2Bを、英語の入出力用として設定する。 The microphone 1B and the speaker 2B, to set for the English input. このように設定することで、制御部11では、以下、マイク1Aまたは1Bには、日本語または英語の音声がそれぞれ入力されるものとして、また、スピーカ2Aまたは2Bには、日本語または英語の合成音がそれぞれ供給されるように制御が行われる。 By setting in this manner, the control unit 11, hereinafter, the microphone 1A or 1B is as Japanese or English audio are input, also, the speaker 2A or 2B, Japanese or English control is performed so that the resultant sound is supplied.

【0052】即ち、ユーザAが日本語による発話を行った場合、その日本語の音声は、マイク1Aおよびスイッチ3を介して、音声認識部8に供給される。 [0052] That is, if the user A makes a speech in Japanese, speech of the Japanese language, via the microphone 1A and switch 3 is supplied to the voice recognition unit 8. 音声認識部8は、スイッチ3を介して音声を受信すると、その旨を、制御部11に出力する。 Speech recognition unit 8 receives the voice via the switch 3, to that effect, and outputs it to the control unit 11. 制御部11は、音声認識部8より、スイッチ3を介して音声が入力された旨を受信すると、音声認識部8を日本語の音声を音声認識するように、翻訳部9を日本語を英語に翻訳するように、音声合成部10を英語の合成音を生成するように、それぞれ制御する。 Control unit 11, from the voice recognition unit 8 receives the effect that sound is input through the switch 3, the voice of the Japanese voice recognition unit 8 to recognize speech, the Japanese translation unit 9 English as will be translated, to generate the voice synthesis unit 10 English synthesized speech, and controls, respectively.

【0053】そして、以下、図11における場合と同様の処理が行われ、これにより、LCD表示部12には、 [0053] Then, the same processing as that in FIG 11 is performed, thereby, the LCD display unit 12,
マイク1Aに入力された日本語の音声の音声認識結果、 Speech recognition result of the Japanese of the voice input to the microphone 1A,
およびその音声認識結果を英語に翻訳した翻訳文が表示され、音声合成部10では、その翻訳文に対応する合成音(英語の合成音)が生成される。 And its translation the speech recognition results are translated into English is displayed, the speech synthesis unit 10, the synthesized speech corresponding to the translation (English synthesized sound) is generated. この翻訳文の合成音は、音声合成部10から、スイッチ6を介して、スピーカ2Bに供給されて出力される。 Synthesized sound of the translation from the speech synthesis unit 10, via a switch 6, and output is supplied to the speaker 2B. これにより、ユーザB As a result, the user B
は、スピーカ2Bから、ユーザAの発話を英語に翻訳した合成音を聴くことができる。 Is, from the speaker 2B, it is possible to listen to the synthesized sound that the translation of the speech of the user A in English.

【0054】一方、ユーザBが英語による発話を行うと、その英語の音声は、マイク1Bおよびスイッチ5を介して、やはり、音声認識部8に供給される。 On the other hand, when the user B performs the speech in English, the English voice via the microphone 1B and the switch 5, also, it is supplied to the voice recognition unit 8. 音声認識部8は、スイッチ5を介して音声を受信すると、その旨を、制御部11に出力する。 Speech recognition unit 8 receives the voice via the switch 5, to that effect, and outputs it to the control unit 11. 制御部11は、音声認識部8より、スイッチ5を介して音声が入力された旨を受信すると、音声認識部8を英語の音声を音声認識するように、翻訳部9を英語を日本語に翻訳するように、音声合成部10を日本語の合成音を生成するように、それぞれ制御する。 Control unit 11, from the voice recognition unit 8 receives the effect that the speech is inputted through the switch 5, the speech recognition unit 8 English voice to recognize voice, a translation unit 9 English into Japanese to translate the speech synthesis unit 10 to generate a Japanese synthesized speech, and controls, respectively.

【0055】そして、以下、図11における場合と同様の処理が行われ、これにより、LCD表示部12には、 [0055] Then, the same processing as that in FIG 11 is performed, thereby, the LCD display unit 12,
マイク1Bに入力された英語の音声の音声認識結果、およびその音声認識結果を日本語に翻訳した翻訳文が表示され、音声合成部10では、その翻訳文に対応する合成音(日本語の合成音)が生成される。 Been English speech recognition result of the speech input to the microphone 1B, and the speech recognition result is translated sentence translated into Japanese is displayed, the speech synthesis unit 10, the synthesized speech corresponding to the translation (Synthesis of Japanese sound) is generated. この翻訳文の合成音は、音声合成部10から、スイッチ4を介して、スピーカ2Aに供給されて出力される。 Synthesized sound of the translation from the speech synthesis unit 10, via the switch 4, and output is supplied to the speaker 2A. これにより、ユーザAは、スピーカ2Aから、ユーザBの発話を日本語に翻訳した合成音を聴くことができる。 Thus, the user A from the speaker 2A, it is possible to listen to the synthesized sound obtained by translating the utterance of the user B to Japanese.

【0056】以上のように、マイクが2つ設けられているので、最初に、マイク1Aおよび1Bに入力される音声の言語を設定することで、それ以降は、音声が、スイッチ3または5のうちのいずれを介して入力されたものであるかを判別することにより、即ち、ここでは、マイク1Aまたは1Bのうちのいずれかから音声が入力されたかを判別することにより、その音声の言語を、容易に認識することができる。 [0056] As described above, since the provided two microphones, initially, by setting the language of the sound input to the microphone 1A and 1B, thereafter, voice, switch 3 or 5 by determining whether it is an input via any out, i.e., here, by determining whether the voice has been input from any of the microphones 1A or 1B, the language of the speech it can be easily recognized. その結果、ユーザAが発話するときと、ユーザBが発話するときとで、キースイッチ部14を操作する必要がなく、従って、ユーザAおよびB As a result, as when the user A speaks, in a case where the user B speaks, it is not necessary to operate the key switch section 14, therefore, users A and B
に煩わしさを感じさせることを防止することができる。 To feel the burden on can be prevented.
また、そのような操作を防止するために、翻訳装置を2 Further, in order to prevent such an operation, the translation apparatus 2
台用意する必要もない。 Stand there is no need to be prepared.

【0057】なお、ユーザAとBとは、通常は、翻訳装置を挟んで、向き合った状態で会話を行うことが予想されるため、マイク1Aまたは1Bそれぞれは、そのような状態で装置が使用されるときに、ユーザAまたはBの発話を良好に拾うことができるような指向性を有するものとすることができる。 [0057] Note that the user A and B, usually across the translation apparatus, since it is anticipated that a conversation in opposed state, each microphone 1A or 1B, apparatus used in such conditions when it is, it can be assumed to have a directivity that can be picked up satisfactorily utterance of the user a or B. また、マイク1Aおよび1Bの指向性は、所定の方向に変更することができるようにすることもできる。 Also, directivity of the microphone 1A and 1B, it is also possible to be able to change in a predetermined direction.

【0058】次に、この実施例においては、上述したように、コネクタ7Aおよび7Bが設けられており、このコネクタ7Aや7Bには、例えば図2に示すヘッドセットや、図3に示すイヤーセットなどを接続することができるようになされている。 Next, in this embodiment, as described above, and connectors 7A and 7B is provided on the connector 7A and 7B, or a head set shown in FIG. 2, for example, earset shown in FIG. 3 it is made which are to be able to connect a. 即ち、翻訳装置には、ヘッドセットやイヤーセットなどが外部から接続可能になされている。 That is, the translation apparatus, such as a headset or ear set is adapted to be connected externally.

【0059】図2に示すヘッドセットにおいては、ユーザの頭部に装着可能な装着部21にスピーカ22が設けられている。 [0059] In the headset shown in Figure 2, the speaker 22 is provided in the mounting portion 21 mountable to the head of the user. なお、スピーカ22は、装着部21がユーザの頭部に装着されたときに、そのユーザの耳の部分に位置するように取り付けられている。 Incidentally, the speaker 22, when the mounting portion 21 is attached to the user's head, is mounted so as to be positioned in the ear portion of the user. さらに、装着部2 In addition, the mounting portion 2
2には、アーム23の一端が取り付けられており、その他端には、マイク24が設けられている。 The 2, is attached one end of the arm 23, and the other end, a microphone 24 is provided. なお、アーム23は、装着部21がユーザの頭部に装着されたときに、その先端に設けられたマイク24が、ユーザの口の前に位置するように構成されている。 Incidentally, the arms 23, when the mounting portion 21 is mounted on the head of the user, a microphone 24 provided at the distal end is configured to be positioned in front of the user's mouth.

【0060】スピーカ22およびマイク24には、信号をやりとりするためのコード25が接続されており、このコード25の、スピーカ22およびマイク24が接続されていない方の一端には、コネクタ7Aや7Bに装着することのできるジャック26が設けられている。 [0060] The speaker 22 and the microphone 24, code 25 for exchanging signals is connected, the code 25, to one end of the direction in which the speaker 22 and the microphone 24 is not connected, the connector 7A and 7B Jack 26 which can be mounted is provided on.

【0061】ユーザは、以上のようなヘッドフォンを使用するとき、ジャック26をコネクタ7Aまたは7Bに差し込むとともに、装着部21を頭部に装着する。 [0061] When a user uses a headphone as described above, with inserting the jack 26 to the connector 7A or 7B, the mounting portion 21 is mounted on the head.

【0062】例えば、ジャック26がコネクタ7Aに差し込まれた場合、スイッチ3または4は、端子3bまたは4bをそれぞれ選択するようになされており、これにより、音声認識部8とマイク24とが、また、音声合成部10とスピーカ22とが、ぞれぞれ電気的に接続される。 [0062] For example, if the jack 26 is inserted into the connector 7A, the switch 3 or 4, have been made the terminal 3b or 4b to select each Thereby, the voice recognition unit 8 and the microphone 24, also a speech synthesis unit 10 and the speaker 22 are Zorezo Re electrically connected. 従って、この場合、ユーザAが日本語による発話を行うと、その日本語の音声は、マイク24およびスイッチ3を介して、音声認識部8に入力される。 Therefore, in this case, the user A makes a speech in Japanese, speech of the Japanese language, via the microphone 24 and the switch 3 is input to the speech recognition unit 8. また、音声合成部10が出力する日本語の合成音は、スイッチ4を介して、スピーカ22に供給されて出力される。 Further, the synthesized sound of Japanese output from the speech synthesis unit 10, via the switch 4, and output is supplied to the speaker 22.

【0063】一方、ジャック26がコネクタ7Bに差し込まれた場合、スイッチ5または6は、端子5bまたは6bをそれぞれ選択するようになされており、これにより、やはり、音声認識部8とマイク24とが、また、音声合成部10とスピーカ22とが、ぞれぞれ電気的に接続される。 [0063] On the other hand, if the jack 26 is inserted into the connector 7B, the switch 5 or 6 is made a pin 5b or 6b to select each Thereby, again, is a speech recognition unit 8 and the microphone 24 in addition, the speech synthesis unit 10 and the speaker 22 are Zorezo Re electrically connected. 従って、この場合、ユーザBが英語による発話を行うと、その英語の音声は、マイク24およびスイッチ5を介して、音声認識部8に入力される。 Therefore, in this case, when the user B performs the speech in English, the English voice via the microphone 24 and the switch 5 is input to the speech recognition unit 8. また、音声合成部10が出力する英語の合成音は、スイッチ6を介して、スピーカ22に供給されて出力される。 Also, English synthesized speech output from the speech synthesis unit 10 through the switch 6, and output is supplied to the speaker 22.

【0064】次に、図3に示すイヤーセットにおいては、ユーザの耳に装着可能なスピーカ31にアーム32 Next, in the earset shown in FIG. 3, the arm 32 to the speaker 31 can be attached to the user's ear
が取り付けられている。 It is attached. そして、アーム32の、スピーカ31が設けられていない用の一端には、マイク33が設けられている。 Then, the arm 32, to one end for the speaker 31 is not provided, the microphone 33 is provided. なお、アーム32は、スピーカ31がユーザの耳に装着されたときに、その先端に設けられたマイク33が、ユーザの口の前に位置するように構成されている。 Incidentally, the arms 32, when the speaker 31 is mounted to the ear of the user, a microphone 33 provided at the distal end is configured to be positioned in front of the user's mouth.

【0065】スピーカ31およびマイク33には、信号をやりとりするためのコード34が接続されており、このコード34の、スピーカ31およびマイク33が接続されていない方の一端には、コネクタ7Aや7Bに装着することのできるジャック35が設けられている。 [0065] The speaker 31 and the microphone 33, the signal is code 34 for exchanging is connected to, the cord 34, one end of the direction in which the speaker 31 and the microphone 33 is not connected, the connector 7A and 7B Jack 35 which can be attached to is provided.

【0066】ユーザは、以上のようなイヤーセットを使用するとき、ジャック35をコネクタ7Aまたは7Bに差し込むとともに、スピーカ31を耳に装着する。 [0066] When a user uses the earset as described above, with inserting the jack 35 to the connector 7A or 7B, to attach the speaker 31 to the ear. この場合、上述のヘッドセットにおける場合と同様にして、 In this case, in the same manner as the case in the headset described above,
マイク33に入力された音声は、音声認識部8に供給され、また、音声合成部10が出力する合成音が、スピーカ31に供給される。 Voice inputted to the microphone 33 is supplied to the voice recognition unit 8, also the synthesized speech output from the speech synthesis section 10 is supplied to the speaker 31.

【0067】以上のようなヘッドセットやイヤーセットにおいては、マイク24や33がユーザの口の前に位置するようになされているので、そこには周囲の雑音が混入しにくくなり、従って、音声認識部8における音声認識の精度を向上させることが可能となる。 [0067] In headset or earset as described above, since the microphone 24 and 33 are made to be positioned in front of the user's mouth, the surrounding noise is hardly mixed in there, therefore, the voice it is possible to improve the accuracy of speech recognition in the recognition unit 8. さらに、ユーザが、それほど大きな声で発話を行う必要もなくなる。 In addition, the user is also no longer necessary to carry out the speech so in a loud voice.
また、ユーザAまたはBのうちの少なくともいずれか一方が、ヘッドセットやイヤーセットを使用するようにすることで、一方の音声が、他方が使用するマイクに混入する割合を低減することができる。 Further, at least one of the user A or B, by the use of a headset or earset can one sound to reduce the rate of incorporation into microphone other uses. さらに、スピーカ2 In addition, the speaker 2
2や31は、ユーザの耳の部分に位置するようになされているので、大きな雑音のある環境下であっても、翻訳結果を、明瞭に聴くことが可能となる。 2 and 31, because is adapted to position the portion of the user's ear, even in an environment with large noise, the translation result, it is possible to clearly hear.

【0068】また、ユーザAおよびBの両方が、ヘッドセットやイヤーセットを使用するようにした場合、それぞれの音声を、的確に拾うことが可能となり、その結果、両者の発話が重なっても、音声認識部8、翻訳部9、および音声合成部10に、その両者の音声に対する処理を、例えば時分割で行わせるようにすることで、そのような同時になされた発話に対する対応も可能となる。 [0068] In addition, both the user A and B, if you choose to use a headset or earset, each voice, it is possible to pick up accurately, as a result, even if both speech overlap, speech recognition unit 8, the translation unit 9, and the speech synthesis unit 10, the processing for the speech of both, by such causes in time division for example, correspond also allows for utterance was made in such a simultaneous.

【0069】次に、図4は、本発明を適用した携帯型の翻訳装置の第2実施例の構成を示している。 Next, FIG. 4 shows a configuration of a second embodiment of a portable translation apparatus according to the present invention. なお、図中、図1における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。 Incidentally, portions corresponding to those in the figure, FIG. 1 are given the same reference numerals, and description thereof will be omitted below as appropriate. 即ち、この翻訳装置は、セレクタ41および4 That is, the translation apparatus, the selector 41 and 4
2、電話部43、アンテナ(ANT)44、並びにMD 2, the telephone unit 43, an antenna (ANT) 44, and MD
部45が新たに設けられている他は、図1の翻訳装置と同様に構成されている。 Our part 45 is newly provided, it is configured similarly to the translation device FIG.

【0070】セレクタ41は、制御部11により制御され、その入力端子i1,i2、またはi3に入力される信号のうちのいずれかを選択して、その出力端子out [0070] The selector 41 is controlled by the control unit 11, by selecting one of the signal input to the input terminal i1, i2 or i3,, the output terminal out
から出力するようになされている。 And then outputs the. なお、セレクタ41 It should be noted that the selector 41
の入力端子i1乃至i3それぞれには、音声合成部10 Input terminals i1 to i3 Each speech synthesis unit 10
が出力する日本語の合成音、MD部45の出力信号、または電話部43の出力信号が入力されるようになされており、また、その出力端子outは、スイッチ4と接続されている。 There Japanese synthesized speech to be output, the output signal of the MD unit 45 or have been made so that the output signal of the telephone unit 43 is input, and its output terminal out is connected to the switch 4.

【0071】セレクタ42は、制御部11により制御され、その入力端子i1またはi2に入力される信号のうちのいずれかを選択して、その出力端子outから出力するようになされている。 [0071] The selector 42 is controlled by the control unit 11, by selecting one of the signal input to the input terminal i1 or i2, and then outputs from the output terminal out. なお、セレクタ42の入力端子i1またはi2それぞれには、マイク1Aが出力する日本語の音声信号(またはコネクタ7Aを介して供給される日本語の音声信号)、または音声合成部10が出力する英語の合成音が入力されるようになされており、また、その出力端子outは、電話部43と接続されている。 Incidentally, the input terminal i1 or i2 Each selector 42 outputs or speech synthesizer 10, (audio signal Japanese supplied via or connector 7A) audio signal Japanese microphone 1A outputs English adapted sound synthesis is input and, also, the output terminal out is connected to the telephone unit 43.

【0072】電話部43は、電話通信を行うための制御を行うようになされている。 [0072] Telephone unit 43 is adapted to perform control for performing telephone communication. 即ち、電話部43は、セレクタ42の出力端子outから供給される音声を変調して、アンテナ44に出力し、また、アンテナ44から供給される信号を復調して音声信号とし、セレクタ41の入力端子i3および音声認識部8に出力するようになされている。 That is, the telephone unit 43 modulates the sound supplied from the output terminal out of the selector 42, and outputs to the antenna 44, also with an audio signal by demodulating the signal supplied from the antenna 44, the input of the selector 41 and to output the terminal i3 and speech recognition unit 8. アンテナ44は、電話部43からの信号を、 Antenna 44, a signal from the telephone unit 43,
電波として放射し、また、図示せぬ電話機(携帯電話機)から基地局を介して送信されてくる電波を受信するようになされている。 It radiated as a radio wave, also adapted to receive the radio waves transmitted from the unillustrated telephone (mobile phone) via the base station. MD部45は、ミニディスクの再生を行うようになされている。 MD unit 45 is adapted to reproduce the minidisk.

【0073】次に、その動作について説明する。 [0073] Next, the operation will be described. なお、 It should be noted that,
ここでも、例えば、第1実施例における場合と同様に、 Again, for example, as in the first embodiment,
マイク1Aおよびスピーカ2Aを、日本語による発話を行うユーザAが、マイク1Bおよびスピーカ2Bを、英語による発話を行うユーザBが使用するものとする。 The microphone 1A and speaker 2A, the user A to perform the speech in Japanese is, the microphone 1B and the speaker 2B, the user B shall be used for performing speech in English.

【0074】まず、ユーザAとBとの間で会話を行う場合においては、第1実施例における場合と同様に、キースイッチ部14を操作する。 [0074] First, when a conversation between the user A and B, as in the first embodiment, operating the key switch section 14. この場合、制御部11は、 In this case, the control unit 11,
第1実施例における場合と同様の制御を行うとともに、 It performs the same control as in the first embodiment,
セレクタ41を、その入力端子i1に入力される信号を、その出力端子outから出力するように制御する。 The selector 41, a signal input to the input terminal i1, is controlled to output from the output terminal out.
従って、この場合、音声合成部10が出力する日本語の合成音は、セレクタ41およびスイッチ4を介して、スピーカ2Aに出力される。 Therefore, in this case, synthesized speech in Japanese output from the speech synthesis unit 10 through the selector 41 and the switch 4, and output to the speaker 2A.

【0075】また、この場合、マイク1Aおよび1Bに入力された音声は、音声認識部8に供給され、さらに、 [0075] In this case, voice input to the microphone 1A and 1B are supplied to the speech recognition unit 8, further
音声合成部10が出力する英語の合成音は、スイッチ6 English of synthesized sound output by the speech synthesis unit 10, switch 6
を介してスピーカ2Bに供給される。 It is supplied to a speaker 2B through.

【0076】従って、この場合、第1実施例における場合と同様に、ユーザAとBとは会話を行うことができる。 [0076] Therefore, in this case, as in the first embodiment, it is possible to perform conversation between user A and B.

【0077】次に、ユーザAが、日本語の発話を行う、 [0077] Next, the user A performs a speech in Japanese,
例えば電話機などの端末を有するユーザ(以下、適宜、 For example, a user having the terminal, such as telephone (hereinafter,
電話機日本語ユーザという)と電話通信を行う場合、その旨を指示するように、キースイッチ部14を操作する。 When performing telephone communication with the telephone that Japanese user) to indicate that fact, operating the key switch section 14. この場合、制御部11は、セレクタ41を、その入力端子i3に入力される信号を、その出力端子outから出力するように制御するとともに、セレクタ42を、 In this case, the control unit 11, a selector 41, a signal input to the input terminal i3, and controls so as to output from the output terminal out, the selector 42,
その入力端子i1に入力される信号を、その出力端子o The signal input to the input terminal i1, an output terminal o
utから出力するように制御する。 To control so as to output from ut.

【0078】従って、この場合、マイク1Aに入力されたユーザAの音声は、スイッチ3およびセレクタ42を介して、電話部43に供給され、また、電話部43から出力される音声信号は、セレクタ41およびスイッチ4 [0078] Therefore, in this case, the voice of the user A inputted to the microphone 1A via the switch 3 and the selector 42, is supplied to the telephone unit 43, also, the audio signal output from the telephone unit 43, the selector 41 and the switch 4
を介してスピーカ2Aに供給される。 It is supplied to a speaker 2A through.

【0079】さらに、制御部11は、電話部43を電話通信の制御を行うように制御する。 [0079] Further, the control unit 11 controls to perform the control of the telephone communication a telephone unit 43. これにより、マイク1Aに入力されたユーザAの音声は、スイッチ3およびセレクタ42を介して、電話部43に供給され、この電話部43から、電話機日本語ユーザの有する電話機に送信される。 Thus, the voice of the user A inputted to the microphone 1A via the switch 3 and the selector 42, it is supplied to the telephone unit 43, from the telephone unit 43, is sent to the phone with the phone Japanese user. 一方、電話機日本語ユーザが有する電話機から送信されてきた音声信号は、アンテナ44で受信され、電話機部43に供給される。 On the other hand, the audio signal transmitted from the telephone with the telephone Japanese user is received by the antenna 44 is supplied to the telephone unit 43. 電話部43は、この音声信号を、セレクタ41およびスイッチ4を介して、スピーカ2Aに供給し、これにより、スピーカ2Aからは、電話機日本語ユーザの音声が出力される。 Telephone unit 43, the audio signal, via a selector 41 and the switch 4 is supplied to the speaker 2A, by which, from the speaker 2A, voice telephone Japanese user is output.

【0080】以上のようにして、ユーザAと、電話機日本語ユーザとの間において、電話通信による会話を行うことができる。 [0080] As described above, the user A, in between the phone Japanese user can perform conversation by telephone communication.

【0081】次に、ユーザAが、英語の発話を行う、例えば電話機などの端末を有するユーザ(以下、適宜、電話機英語ユーザという)と電話通信を行う場合、その旨を指示するように、キースイッチ部14を操作する。 Next, the user A, performs an English speech, for example, a user (hereinafter, appropriately, telephone called English user) having a terminal such as a telephone when performing telephone communication with, so as to indicate that effect, the key operating the switch section 14. この場合、制御部11は、セレクタ41を、その入力端子i1に入力される信号を、その出力端子outから出力するように制御するとともに、セレクタ42を、その入力端子i2に入力される信号を、その出力端子outから出力するように制御する。 In this case, the control unit 11, a selector 41, a signal input to the input terminal i1, and controls so as to output from the output terminal out, the signal selector 42 is input to the input terminal i2 It is controlled to output from the output terminal out. さらに、制御部11は、上述の場合と同様に、電話部43を電話通信の制御を行うように制御する。 Further, the control unit 11, similarly to the case described above, is controlled to perform the control of the telephone communication a telephone unit 43.

【0082】この場合、マイク1Aに入力されたユーザAの日本語の音声は、スイッチ3を介して、音声認識部8に供給され、以下、音声認識部8、翻訳部9、および音声合成部10において、第1実施例における場合と同様の処理が行われる。 [0082] In this case, the Japanese voice of the user A inputted to the microphone 1A via the switch 3 is supplied to the voice recognition unit 8, below, the speech recognition unit 8, the translation unit 9, and the speech synthesizer in 10, the same processing as in the first embodiment is performed. これにより、音声合成部10からは、ユーザAによる日本語の発話を英語に翻訳した翻訳文に対応する合成音が出力される。 Thus, from the speech synthesis unit 10, the synthesized speech corresponding to the translated sentence translated in Japanese utterance by the user A in English is output. この英語の合成音は、セレクタ42において選択されている入力端子i2 Synthesized sound of the English input terminal is selected by the selector 42 i2
に供給され、その出力端子outから電話部43に供給される。 Is fed to, it is supplied to the telephone unit 43 from the output terminal out. その結果、ユーザAの発話を英語に翻訳した合成音は、電話機英語ユーザの有する電話機に送信される。 As a result, synthesized speech translated utterance of the user A in English is sent to the phone with the phone English user.

【0083】一方、電話機英語ユーザが有する電話機から送信されてきた音声信号は、アンテナ44で受信され、電話機部43に供給される。 [0083] On the other hand, the audio signal transmitted from the telephone with the telephone English user is received by the antenna 44 is supplied to the telephone unit 43. 電話部43は、この音声信号を、音声認識部8に供給する。 Telephone unit 43 supplies the audio signal, the speech recognition unit 8. この場合、音声認識部8、翻訳部9、および音声合成部10では、第1実施例において、マイク1Bから音声が供給された場合と同様の処理が行われる。 In this case, the speech recognition unit 8, the translation unit 9, and the speech synthesis unit 10, in the first embodiment, the same processing as when the voice is supplied from the microphone 1B is performed. 即ち、この場合、電話機英語ユーザが有する電話機からの音声、つまり英語の音声は、 That is, in this case, the voice from the telephone set having the telephone English user, i.e. English audio,
日本語に翻訳され、合成音として、音声合成部10から出力される。 Been translated into Japanese, as synthesized speech, is output from the speech synthesis section 10. この日本語の合成音は、セレクタ41において選択されている入力端子i1に供給され、その出力端子outから、スイッチ4を介して、スピーカ2Aに供給される。 Synthesized sound of the Japanese is supplied to the input terminal i1 being selected by the selector 41, from the output terminal out, via the switch 4, it is supplied to a speaker 2A. これにより、スピーカ2Aからは、電話機英語ユーザの音声を日本語に翻訳した合成音が出力される。 Thus, from the speaker 2A, synthesized speech obtained by translating the voice of the telephone English user Japanese is output.

【0084】以上のようにして、ユーザAと、電話機英語ユーザとの間において、電話通信による会話を行うことができる。 [0084] As described above, the user A, in between the telephone set English user can perform conversation by telephone communication.

【0085】次に、ユーザAが、例えばMDに記録された音楽などを聴こうとする場合には、そのMDをMD部45にセットするとともに、そのMDを再生するように、キースイッチ部14を操作する。 Next, as user A, for example, when to be listen to music recorded on the MD, as well as set its MD in the MD unit 45, reproduces the MD, the key switch section 14 to manipulate. この場合、制御部11は、セレクタ41を、その入力端子i2に入力される信号を、その出力端子outから出力するように制御するとともに、MD部45を、そこにセットされたMD In this case, the control unit 11, a selector 41, a signal input to the input terminal i2, and controls so as to output from the output terminal out, the MD 45, which is set therein MD
を再生するように制御する。 The controls to play.

【0086】これに対応して、MD部45では、MDの再生が行われ、その再生信号が、セレクタ41において選択されている入力端子i2に供給され、その出力端子outから出力される。 [0086] Correspondingly, the MD unit 45, MD reproduction is performed, the reproduction signal is supplied to an input terminal i2 being selected by the selector 41, is output from the output terminal out. 従って、この再生信号は、スイッチ4を介して、スピーカ2Aに供給される。 Therefore, the reproduction signal, via the switch 4, is supplied to a speaker 2A. これにより、スピーカ2Aからは、MDから再生された音楽が出力される。 Thus, from the speaker 2A, the music reproduced from MD is output.

【0087】以上のようにして、ユーザAは、MDから再生された音楽を聴くことができる。 [0087] As described above, the user A can listen to music that has been reproduced from the MD.

【0088】ところで、この翻訳装置においても、第1 [0088] By the way, in this translation apparatus, the first
実施例における場合と同様に、ヘッドセットやイヤーセットを装着することができるようになされている。 As in Example, it is made to be able to mount a headset or earset. 上述のように、MDから再生された音楽を、ヘッドセットやイヤーセットを用いて聴くという翻訳装置の使用態様は、通常の携帯型のラジオ受信機や、カセットテープレコーダなどで、音楽を聴くのと同様の態様であるから、 As described above, the music reproduced from MD, mode of use of the translation device that listen with headsets and earset or regular portable radio receiver, a cassette tape recorder or the like, listen to music since a similar manner as,
このように、MD部45を設けることによって、翻訳装置においてヘッドセットやイヤーセットを用いることに対する違和感を低減することができる。 Thus, by providing the MD 45, it is possible to reduce discomfort for the use of a headset or earset in the translation device.

【0089】また、第2実施例では、電話部43を設けたことによって、電話による会話が可能となるが、この電話による会話は、ヘッドセットやイヤーセットを用いることにより行い易くなり、さらに、そのような使用態様が定着すれば、やはり、翻訳装置においてヘッドセットやイヤーセットを用いることに対する違和感を低減することができる。 [0089] In the second embodiment, by providing the telephone unit 43, although it is possible to telephone conversations, conversations this phone is easily carried out by using a headset or earset further, if fixing is such use aspect, also, it is possible to reduce discomfort for the use of a headset or earset in the translation device.

【0090】なお、第2実施例においては、情報を再生する装置として、MD部45を設けるようにしたが、その他、例えばラジオ受信機や、カセットテープレコーダなどを設けるようにすることも可能である。 [0090] In the second embodiment, as an apparatus for reproducing information has been to provide a MD unit 45, other, for example, radio receivers, it is also possible to be provided with such a cassette tape recorder is there. さらに、将来、携帯に便利なように、例えば音楽を記録したICカードなどが実現された場合には、そのようなICカードを再生するための装置を設けるようにすることも可能である。 Furthermore, the future, as mobile in a convenient, for example, when such recorded IC card music is achieved, it is also possible to provide a device for reproducing such an IC card.

【0091】また、第1実施例および第2実施例においては、マイクおよびスピーカを2つずつ設けるようにしたが、マイクおよびスピーカは、3以上設けるようにすることも可能である。 [0091] In the first embodiment and the second embodiment, has been to provide a microphone and a speaker by two microphones and the speaker, it is also possible to provide three or more. この場合、3人以上のユーザどうしの間で、異なる言語による会話を行うことが可能となる。 In this case, between the each other 3 or more users, it is possible to perform conversation with different languages.

【0092】次に、図5は、本発明を適用した翻訳装置の第3実施例の外観構成を示している。 Next, FIG. 5 shows an external configuration of a third embodiment of the applied translation apparatus of the present invention. この翻訳装置も、第1実施例および第2実施例における場合と同様に携帯型とされている。 This translation device is also portable as in the first embodiment and the second embodiment.

【0093】この翻訳装置は、装置の電源をオン、オフするときに操作される電源スイッチ55が設けられた本体52と、音声を出力するスピーカ53および音声を入力するマイク54とが、独立に、分離して設けられている。 [0093] The translation apparatus is powered on device, the main body 52 of the power switch 55 to be operated is provided when turned off, a microphone 54 for inputting the speaker 53 and the audio output of the audio is independently , it is provided separately. 即ち、スピーカ53およびマイク54は、本体52 That is, the speaker 53 and the microphone 54, the main body 52
自体に設けられているのではなく、本体52とは別に設けられている。 Rather than being provided in itself, it is provided separately from the main body 52. なお、図5の実施例では、本体52と、 In the embodiment of FIG. 5, the body 52,
スピーカ53およびマイク54とは、所定の接続線を介して接続されている。 The speaker 53 and microphone 54 are connected via a predetermined connecting line.

【0094】そして、この翻訳装置においては、マイク54に、例えば日本語の音声を入力すると、それが電気信号としての音声信号に変換され、本体52に供給されるようになされている。 [0094] Then, in this translation apparatus, the microphone 54, for example by entering the voice in Japanese, it is converted into an audio signal as an electric signal, it is adapted to be supplied to the body 52. 本体52では、マイク54に入力された音声が音声認識され、さらに、その音声認識結果が、例えば英語などに翻訳されるようになされている。 In the main body 52, the sound input to the microphone 54 is recognized voice, Furthermore, the speech recognition result have been made for example to be translated like English. そして、本体52では、その英語に翻訳された翻訳文に対応する合成音が生成され、これが、スピーカ53 Then, the main body 52, the synthesized speech corresponding to the translation that is translated into the English is generated, which the speaker 53
から出力されるようになされている。 It is adapted to be outputted from the.

【0095】なお、スピーカ53は、ユーザの耳に取り付け可能なように、例えばイヤフォンなどとされている。 [0095] Incidentally, the speaker 53, so as to be attached to the ear of the user, for example, is such as earphones.

【0096】以上のように、スピーカ53は、本体52 [0096] As described above, the speaker 53, the main body 52
と分離して設けられ、ユーザの耳に取り付け可能なようになされているので、例えば、環境雑音のレベルが大きい場所において装置を使用する場合であっても、合成音を聞き取ることがことができる。 It provided separately and, since have been made so as to be attachable to a user's ear, for example, even when using the device in level is high the location of the ambient noise can be heard the synthesized speech . また、マイク54も、 Also, the microphone 54,
本体52と分離して設けられているので、そのマイク5 Since it is provided separately from the main body 52, the microphone 5
4だけを、ユーザの口に近づけるだけで、そこに混入する雑音を低減することができる。 Only 4, only closer to the user's mouth, it is possible to reduce noise mixed therein.

【0097】次に、図6は、図5の翻訳装置の電気的構成例を示している。 [0097] Next, FIG. 6 shows an example of the electrical configuration of the translation apparatus of FIG. マイク54から出力されるアナログの音声信号は、A/D変換器61に供給されるようになされている。 An analog audio signal outputted from the microphone 54 is adapted to be supplied to the A / D converter 61. A/D変換器61は、マイク54からのアナログの音声信号を、所定のサンプリングクロックにしたがってサンプリングし、さらに量子化することで、ディジタルの音声信号に変換するようになされている。 A / D converter 61, the analog audio signal from the microphone 54 is sampled according to a predetermined sampling clock, further by quantizing are adapted to convert the digital audio signal. A
/D変換器61においてディジタル信号とされた音声信号は、音声認識回路62に供給されるようになされている。 / Audio signal and the digital signal D converter 61 is adapted to be supplied to the voice recognition circuit 62.

【0098】音声認識回路62は、A/D変換器61から音声信号を受信すると、その音声信号の、例えば音程(周波数)や、強弱(振幅)、速度(発話速度)などを音響分析し、その分析結果に基づいて、マイク54に入力された音声を音声認識するようになされている。 [0098] Voice recognition circuit 62 receives the audio signal from the A / D converter 61, the audio signal, for example, pitch (frequency), intensity (amplitude), and speed (speech rate) and acoustic analysis, based on the analysis results, it has been made the voice input to the microphone 54 to recognize voice. この音声認識結果は、CPU(Central Processor Unit)6 The speech recognition result, CPU (Central Processor Unit) 6
5に供給されるようになされている。 It is adapted to be supplied to 5.

【0099】RAM(Random Access Memory)63は、 [0099] RAM (Random Access Memory) 63 is,
音声認識回路62の動作上必要なデータを記憶するようになされている。 It is adapted to store data necessary for operation of the voice recognition circuit 62. ROM(Read Only Memory)64は、 ROM (Read Only Memory) 64 is,
音声認識回路62が音声認識の対象とする、例えば単語などを記憶しており、従って、音声認識回路62では、 Voice recognition circuit 62 is the object of speech recognition, for example, stores such words, therefore, the speech recognition circuit 62,
このROM64に記憶されている単語を対象として、マイク54に入力された音声が、音声認識されるようになされている。 As the target word which is stored in the ROM 64, the speech input to the microphone 54, is adapted to be speech recognition.

【0100】CPU65は、キーインターフェイス72 [0100] CPU65, the key interface 72
からの信号に対応して、装置の電源を、オン、オフするようになされている。 In response to a signal from the power supply of the device, on, being adapted to turn off. さらに、CPU65は、音声認識回路62および音声合成回路68を制御するようにもなされている。 Further, CPU 65 is adapted to control the speech recognition circuit 62 and the synthesizer circuit 68. また、CPU65は、音声認識回路62からマイク54に入力された、例えば日本語による音声の音声認識結果を、例えば英語に翻訳するようにもなされている。 Further, CPU 65 is input from the voice recognition circuit 62 to the microphone 54, for example, the speech recognition result of the speech in Japanese, for example, be made to be translated into English. なお、その結果得られる翻訳文は、音声合成回路68に供給されるようになされている。 Incidentally, translations resultant is adapted to be supplied to the speech synthesis circuit 68.

【0101】ROM66は、CPU65が行う翻訳に必要なデータが記憶されており、従って、CPU65は、 [0101] ROM66 is stored data necessary for translation to CPU65 do, therefore, is CPU65,
ROM66に記憶されたデータを参照しながら翻訳を行うようになされている。 It is adapted to perform the translation with reference to the data stored in the ROM 66. さらに、ROM66には、システムプログラムやアプリケーションプログラムが記憶されており、CPU65は、このROM66に記憶されているプログラムを実行することで、上述したような処理を行うようになされている。 Further, the ROM 66, system program, application program is stored, CPU 65, by executing a program stored in the ROM 66, are made to perform the processing as described above. RAM67は、CPU65 RAM67 is, CPU65
の動作上必要なデータを一時記憶するようになされている。 It has been required for the operation data to temporarily store.

【0102】音声合成回路68は、CPU65から供給される翻訳文に対応した合成音を、ROM69およびR [0102] voice synthesis circuit 68, a synthesized sound corresponding to the translation supplied from CPU 65, ROM 69 and R
AM70にアクセスしながら生成するようになされている。 It has been made to generate while accessing the AM70. 即ち、ROM69は、例えば、いわゆるCVやVC In other words, ROM69 is, for example, the so-called CV or VC
Vなどの単位で音素片データを記憶しており、また、R Stores the phoneme component data in units such V, In addition, R
AM70は、音声合成回路68の動作上必要なデータを一時記憶するようになされている。 AM70 is adapted to temporarily store data necessary for operation of the speech synthesis circuit 68. そして、音声合成回路68は、CPU65から供給される翻訳文に対応した合成音(音声データ)を、ROM69に記憶されている、必要な音素片データを読み出して接続することにより生成するようになされている。 The speech synthesis circuit 68 is made synthesized speech corresponding to the translation supplied from CPU65 (voice data), as generated by stored in ROM 69, is connected by reading the phoneme component data required ing.

【0103】音声合成回路68で生成された合成音は、 [0103] synthetic sound generated by the speech synthesis circuit 68,
D/A変換器71に供給されるようになされている。 It is adapted to be supplied to the D / A converter 71. この合成音は、ディジタル信号とされており、D/A変換器71は、このディジタルの合成音をD/A変換することにより、アナログの合成音とするようになされている。 This synthesized sound is a digital signal, D / A converter 71, by the D / A conversion synthesized sound of the digital, is adapted to the analog synthesized sounds. このアナログ信号とされた合成音は、スピーカ53 The analog signal synthesis sound, a speaker 53
に供給され、これにより、スピーカ53からは、マイク54に入力された日本語の音声を英語に翻訳した合成音が出力されるようになされている。 Is supplied, thereby to, from the speaker 53, are adapted to the synthesized sound obtained by translating Japanese speech input to the microphone 54 in English is output.

【0104】キーインターフェイス72は、電源スイッチ55が操作されると、その操作に対応した信号を、C [0104] key interface 72, the power switch 55 is operated, a signal corresponding to the operation, C
PU65に出力するようになされている。 And to output the PU65.

【0105】次に、その動作について説明する。 [0105] Next, the operation will be described. ユーザにより、電源スイッチ55が、装置の電源をオンするように操作されると、キーインターフェイス72から、C The user, when the power switch 55 is operated to turn on the device, from the key interface 72, C
PU65に対して、その操作に対応した信号(以下、適宜、オン信号という)が供給される。 Against PU65, signals corresponding to the operation (hereinafter referred to as ON signal) is supplied. CPU65は、キーインターフェイス72からオン信号を受信すると、装置の電源をオン状態にする。 CPU65 receives the ON signal from the key interface 72, the power of the device in the ON state.

【0106】その後、マイク54に日本語による音声が入力されると、その音声は、A/D変換器61を介して、音声認識回路62に供給される。 [0106] Thereafter, the voice in Japanese is inputted to the microphone 54, the voice via the A / D converter 61, is supplied to the voice recognition circuit 62. 音声認識回路62 Voice recognition circuit 62
では、マイク54からの音声が音声認識され、その音声認識結果が、CPU65に供給される。 In voice from the microphone 54 is recognized speech, the speech recognition result is supplied to the CPU 65. CPU65は、 CPU65 is,
音声認識回路62から音声認識結果(日本語の音声認識結果)を受信すると、それを英語に翻訳し、その翻訳文を、音声合成回路68に出力する。 Upon reception of the speech recognition result from the speech recognition circuit 62 (the speech recognition result of the Japanese), and translate it into English, the translation, and outputs it to the speech synthesis circuit 68. 音声合成回路68 Speech synthesis circuit 68
は、CPU65から翻訳文を受信すると、その翻訳文に対応した合成音を生成し、D/A変換器71を介して、 Receives translations from CPU 65, it generates a synthesized sound corresponding to the translation, through the D / A converter 71,
スピーカ53に供給する。 It is supplied to the speaker 53. これにより、スピーカ53からは、マイク54に入力された日本語の音声を英語に翻訳した合成音が出力される。 As a result, from the speaker 53, synthesized sound that translated the voice of the Japanese, which is input to the microphone 54 in English is output.

【0107】次に、以上のような翻訳装置の使用形態(態様)について、図7乃至図10を参照して説明する。 [0107] Next, the use form (embodiment) of the above-described translation apparatus will be described with reference to FIGS. 7-10. 本体(基体部)52は、図7乃至図10に示すように、ベルト82が取り付け可能になされており、これにより、ユーザは、ベルト82を肩などにかけることにより、本体52を、容易に携帯することができるようになされている。 Body (base portion) 52, as shown in FIGS. 7 to 10, have been made to allow the belt 82 attached, thereby, the user, by applying a belt 82 such as the shoulder, the body 52, readily It has been made so that it can be portable. さらに、イヤフォンとして構成されるスピーカ53は、耳に装着することができるようになされている。 Further configured speaker 53 as earphones is adapted so that it can be mounted on the ear.

【0108】そして、図7の実施例では、マイク54 [0108] In the embodiment of FIG. 7, the microphone 54
は、例えば、鉛筆やペンなどの筆記具81(筆記具81 Is, for example, a writing instrument such as a pencil or pen 81 (the writing instrument 81
の一端)に取り付け可能になされている。 Are made attachable to the end). 従って、この場合、ユーザは、例えば、鉛筆やペンなどの筆記具81 Therefore, in this case, the user, for example, writing instrument such as a pencil or pen 81
を持ち、その筆記具81で紙にメモなどを取りながら、 The have, while taking such notes on paper in the writing instrument 81,
翻訳装置を使用することができる。 It is possible to use the translation apparatus. また、翻訳結果は、 In addition, the translation results,
合成音で、スピーカ53から出力されるので、ユーザは、翻訳結果を見る必要がなく、従って、例えば、紙に書かれた文章などを見ながらであっても、容易に、装置を使用することができる。 In synthetic speech, because the output from the speaker 53, the user need not see the translation result, therefore, for example, even while watching such sentence written on paper, easily, the use of equipment can. さらに、この場合、ユーザは、マイク54が取り付けられた筆記具81を口元に移動して発話を行うことにより、マイク54に混入する雑音を低減することができる。 Furthermore, in this case, the user performs utterance by moving the writing instrument 81 the microphone 54 is attached to the mouth, it is possible to reduce noise mixed into the microphone 54.

【0109】次に、図8の実施例では、マイク54は、 [0109] Next, in the embodiment of FIG. 8, a microphone 54,
本体52とスピーカ53とを接続する接続線の途中に取り付けられており、これにより、スピーカ53をユーザの耳に装着したときに、マイク54が、ユーザの口元に位置するようになされている。 Is attached in the middle of the connecting line connecting the main body 52 and the speaker 53, thereby, when mounting the speaker 53 to the user's ear, the microphone 54 is adapted to position the mouth of the user.

【0110】図9の実施例では、スピーカ53およびマイク54によりヘッドセットが構成されている。 [0110] In the embodiment of FIG. 9, the headset is configured by a speaker 53 and a microphone 54. 即ち、 In other words,
ユーザの頭部に装着される装着部91には、スピーカ5 The mounting portion 91 to be attached to the head of the user, a speaker 5
3が設けられている。 3 is provided. なお、スピーカ53は、装着部9 Incidentally, the speaker 53, mounting portion 9
1がユーザの頭部に装着されたときに、そのユーザの耳の部分に位置するように取り付けられている。 1 when mounted on the user's head, is mounted so as to be positioned in the ear portion of the user. さらに、 further,
装着部91には、アーム92の一端が取り付けられており、その他端には、マイク54が設けられている。 The mounting portion 91 is attached to one end of the arm 92, and the other end, a microphone 54 is provided. なお、アーム92は、装着部91がユーザの頭部に装着されたときに、その先端に設けられたマイク54が、ユーザの口の前に位置するように構成されている。 Incidentally, the arms 92, when the mounting portion 91 is mounted on the head of the user, a microphone 54 provided at the distal end is configured to be positioned in front of the user's mouth.

【0111】図10の実施例では、スピーカ53とマイク54とが、所定の接続線により接続されており、これにより、スピーカ53をユーザの耳に装着したときに、 [0111] In the embodiment of FIG. 10, a speaker 53 and a microphone 54 are connected by a predetermined connecting line, by which, when mounting the speaker 53 to the user's ear,
マイク54が、ユーザの口元に位置するようになされている。 Microphone 54 is adapted to position the mouth of the user. さらに、この場合、マイク54には、データの送受を無線で行うための通信装置54Aが設けられているとともに、本体52にも、同様の通信装置52Aが設けられており、これにより、本体52と、スピーカ53およびマイク54との間において、信号のやりとりを無線で行うことができるようになされている。 Furthermore, in this case, the microphone 54, together with the communication device 54A for transmitting and receiving data wirelessly is provided, in the main body 52, and similar communication device 52A is provided, thereby, the main body 52 If, between the speaker 53 and microphone 54, it is made to be able to exchange signals by radio.

【0112】図8乃至図10の実施例においても、図7 [0112] Also in the embodiment of FIGS. 8 to 10, 7
の実施例における場合と同様に、スピーカ53が、ユーザの耳に装着されているので、環境雑音のレベルが大きい場所において装置を使用する場合であっても、容易に、合成音を聞き取ることがことができる。 As in the embodiment, the speaker 53, since it is attached to the user's ear, even when using the device in level is high the location of the ambient noise, you can easily hear the synthesized sound be able to. さらに、マイク54は、スピーカ53をユーザの耳に取り付けたときに、その口元に位置するようになされているので、マイク54に混入する雑音を低減することができる。 Further, the microphone 54, when fitted with a speaker 53 to the user's ear, so have been made so as to be positioned in the mouth, it is possible to reduce noise mixed into the microphone 54.

【0113】なお、第3実施例においては、CPU65 [0113] In the third embodiment, CPU 65
に翻訳処理を行われるようにしたが、ROM66に記憶させるアプリケーションプログラムを変更することによって、CPU65には、種々の情報処理を行わせるようにすることが可能である。 Was to be performed translation process, by changing the application program to be stored in the ROM 66, the CPU 65, it is possible to make to perform various information processing.

【0114】さらに、第3実施例においては、本体52 [0114] Further, in the third embodiment, the main body 52
と分離したマイクとスピーカとを1組だけ設けるようにしたが、このようなマイクとスピーカとは、第1実施例および第2実施例で説明したように、複数セット設けるようにすることも可能である。 And although separate the microphone and speaker to be provided only one set, and such a microphone and a speaker, as explained in the first and second embodiments, it also possible to provide plural sets it is.

【0115】また、以上の実施例では、日本語と英語との間の翻訳を行うようにしたが、翻訳の対象とする言語は、日本語および英語に限定されるものではない。 [0115] In addition, in the above example, was to perform the translation between Japanese and English, the language and the translation of the object, the present invention is not limited to Japanese and English. さらに、翻訳処理は、例えば文単位や、単語単位などの任意の単位で行わせるようにすることが可能である。 Furthermore, the translation process, for example, sentences, it is possible to cause performed in any units, such as word units.

【0116】 [0116]

【発明の効果】請求項1に記載の翻訳装置によれば、音声を入力する入力手段が、複数設けられている。 According EFFECT OF THE INVENTION translation apparatus according to claim 1, an input means for inputting a speech, multiply provided. 従って、複数のユーザは、各入力手段を使用することができるので、装置の利便性を向上させることができる。 Therefore, more than one user, it is possible to use each input means, it is possible to improve the convenience of the device.

【0117】請求項10に記載の翻訳装置によれば、入出力部と本体とが、分離して設けられている。 [0117] According to the translation device of claim 10, input and output unit and the main body, it is separately provided. 従って、 Therefore,
入出力部を、ユーザが使用し易い位置に、容易に移動させることが可能となる。 The input-output unit, the user uses easily located, it is possible to easily move.

【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS

【図1】本発明を適用した翻訳装置の第1実施例の構成を示すブロック図である。 1 is a block diagram showing a configuration of a first embodiment of the applied translation apparatus of the present invention.

【図2】図1の翻訳装置に接続可能なヘッドセットを示す図である。 2 is a diagram showing a headset connectable to a translation device FIG.

【図3】図1の翻訳装置に接続可能なイヤーセットを示す図である。 3 is a diagram illustrating an earset connectable to the translation device of Figure 1.

【図4】本発明を適用した翻訳装置の第2実施例の構成を示すブロック図である。 4 is a block diagram showing a configuration of a second embodiment of the applied translation apparatus of the present invention.

【図5】本発明を適用した翻訳装置の第3実施例の外観構成を示す図である。 5 is a diagram showing an external configuration of the third embodiment of the applied translation apparatus of the present invention.

【図6】図5の翻訳装置の電気的構成例を示すブロック図である。 6 is a block diagram showing an electrical configuration example of a translation apparatus in FIG.

【図7】図5の翻訳装置の使用状態を示す図である。 7 is a diagram showing a state of use of the translation device of Figure 5.

【図8】図5の翻訳装置の使用状態を示す図である。 8 is a diagram showing a state of use of the translation device FIG.

【図9】図5の翻訳装置の使用状態を示す図である。 9 is a diagram showing a state of use of the translation device FIG.

【図10】図5の翻訳装置の使用状態を示す図である。 10 is a diagram showing a state of use of the translation device FIG.

【図11】従来の翻訳装置の一例の構成を示すブロック図である。 11 is a block diagram showing an example of a configuration of a conventional translation apparatus.

【図12】従来の翻訳装置の他の一例の構成を示す平面図である。 12 is a plan view showing an example of a configuration other conventional translation apparatus.

【符号の説明】 DESCRIPTION OF SYMBOLS

1A,1B マイク, 2A,2B スピーカ, 3乃至6 スイッチ, 7A,7B コネクタ, 8 音声認識部, 9 翻訳部, 10 音声合成部,11 制御部, 12 LCD表示部, 13 メモリカード, 1A, 1B microphone, 2A, 2B speakers, 3-6 switches, 7A, 7B connector, 8 speech recognition unit, 9 the translation unit, 10 a voice synthesis unit, 11 control unit, 12 LCD display unit, 13 memory card,
14 キースイッチ部, 22 スピーカ, 24 14 key switch unit, 22 a speaker, 24
マイク, 31 スピーカ, 33マイク, 43 電話部, 44 MD部, 52 本体, 52A 通信装置, 53 スピーカ, 54 マイク, 54A Microphone, 31 a speaker, 33 a microphone, 43 a telephone unit, 44 MD unit, 52 body, 52A communication device, 53 a speaker, 54 a microphone, 54A
通信装置, 62 音声認識回路, 65 CPU, Communication apparatus, 62 speech recognition circuit, 65 CPU,
68 音声合成回路, 81 筆記具 68 speech synthesis circuit, 81 writing instruments

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl. 6識別記号 庁内整理番号 FI 技術表示箇所 G10L 3/00 551 G06F 15/20 592A 15/38 V ────────────────────────────────────────────────── ─── front page continued (51) Int.Cl. 6 identification symbol Agency Docket No. FI art display portion G10L 3/00 551 G06F 15/20 592A 15/38 V

Claims (14)

    【特許請求の範囲】 [The claims]
  1. 【請求項1】 音声を入力する入力手段と、 前記入力手段に入力された前記音声を音声認識する音声認識手段と、 前記音声認識手段の音声認識結果を、前記入力手段に入力された音声の言語と異なる言語に翻訳する翻訳手段と、 前記翻訳手段の翻訳結果を出力する出力手段とを備える翻訳装置であって、 前記入力手段は、複数設けられていることを特徴とする翻訳装置。 And 1. A input means for inputting a voice, a voice recognizing speech recognition means of the voice input to the input means, the speech recognition result of the speech recognition means, the speech input to the input means a translation apparatus comprising: a translation means for translating the language different from the language, and output means for outputting the translation result of the translation means, said input means, the translation device, characterized in that provided in plural.
  2. 【請求項2】 前記入力手段は、所定の方向に指向性を有するマイクロフォンであることを特徴とする請求項1 Wherein said input means, according to claim 1, characterized in that the microphone has directivity in a predetermined direction
    に記載の翻訳装置。 The translation device according to.
  3. 【請求項3】 前記翻訳手段の翻訳結果に対応する合成音を生成する生成手段をさらに備え、 前記出力手段は、前記生成手段により生成される前記合成音を出力することを特徴とする請求項1に記載の翻訳装置。 Wherein further comprising: a generating means for generating a synthesized sound corresponding to the translation result of the translation means, said output means, claims, characterized in that for outputting the synthesized sound generated by said generating means the translation device according to 1.
  4. 【請求項4】 前記出力手段は、複数設けられていることを特徴とする請求項3に記載の翻訳装置。 Wherein said output means, the translation device according to claim 3, characterized in that provided in plural.
  5. 【請求項5】 前記入力手段および出力手段は、ユーザの頭部に装着可能になされていることを特徴とする請求項4に記載の翻訳装置。 Wherein said input means and output means, the translation apparatus of claim 4, characterized in that it is adapted to be mounted on the head of the user.
  6. 【請求項6】 前記複数の入力手段および出力手段のうちの少なくとも1組は、外部から接続可能になされていることを特徴とする請求項4に記載の翻訳装置。 At least one set of wherein said plurality of input means and output means, the translation apparatus of claim 4, characterized in that it is adapted to be connected externally.
  7. 【請求項7】 所定の端末との通信を制御する通信制御手段をさらに備えることを特徴とする請求項1に記載の翻訳装置。 7. The translation apparatus according to claim 1, further comprising a communication control means for controlling communication with the prescribed terminal.
  8. 【請求項8】 前記音声認識手段は、前記通信制御手段により受信される音声も音声認識し、 前記翻訳手段は、前記通信制御手段により受信された音声の、前記音声認識手段による音声認識結果も、その音声の言語と異なる言語に翻訳することを特徴とする請求項7に記載の翻訳装置。 Wherein said speech recognition means, the speech is also recognized speech received by the communication control means, said translation means, said voice received by the communication control means, also the speech recognition result of the speech recognition means , translation apparatus according to claim 7, wherein translating the language different from the voice of the language.
  9. 【請求項9】 情報を再生する再生手段をさらに備え、 前記出力手段は、前記再生手段により再生される前記情報も出力することを特徴とする請求項1に記載の翻訳装置。 Further comprising a reproducing means for reproducing 9. information, and the output means, the translation device according to claim 1, characterized in that also outputs the information reproduced by said reproducing means.
  10. 【請求項10】 音声を入力する入力手段と、 所定の情報に対応する合成音を出力する出力手段とを有する入出力部と、 前記入力手段に入力された前記音声を音声認識する音声認識手段と、 前記音声認識手段の音声認識結果を、前記入力手段に入力された音声の言語と異なる言語に翻訳する翻訳手段と、 前記翻訳手段により出力される翻訳結果に対応する合成音を生成し、前記出力手段に供給する生成手段とを有する本体とを備え、 前記入出力部と本体とは、分離して設けられていることを特徴とする翻訳装置。 10. input means for inputting an audio input-output unit and the voice recognizing speech recognition means of the voice input to the input means and an output means for outputting the synthesized sound corresponding to the predetermined information When the speech recognition result of the speech recognition means, a translation means for translating the audio language different from the language input to the input means, generates a synthesized sound corresponding to the translation result output by said translation means, translation apparatus and a body having a generating means for supplying to said output means, said output unit and the main body is characterized in that are provided separately.
  11. 【請求項11】 前記入出力部と本体との間では、データの送受が無線で行われることを特徴とする請求項10 11. In between the input and output unit and the body, according to claim, characterized in that the transmission and reception of data is performed wirelessly 10
    に記載の翻訳装置。 The translation device according to.
  12. 【請求項12】 前記入力手段は、筆記具に取り付け可能になされていることを特徴とする請求項10に記載の翻訳装置。 12. The input means, the translation apparatus according to claim 10, characterized in that it is adapted to be attachable to a writing instrument.
  13. 【請求項13】 前記入出力部は、ユーザの頭部に装着可能になされていることを特徴とする請求項10に記載の翻訳装置。 Wherein said input-output unit, the translation apparatus of claim 10, characterized in that it is adapted to be mounted on the head of the user.
  14. 【請求項14】 前記出力手段は、所定の接続線を介して前記本体と接続されており、 前記入力手段は、前記所定の接続線の途中に取り付けられていることを特徴とする請求項10に記載の翻訳装置。 14. and the output means, via a predetermined connecting line are connected to the body, said input means, according to claim 10, characterized in that attached to the middle of the predetermined connecting line the translation device according to.
JP10674696A 1996-04-26 1996-04-26 Translation device Pending JPH09292971A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10674696A JPH09292971A (en) 1996-04-26 1996-04-26 Translation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10674696A JPH09292971A (en) 1996-04-26 1996-04-26 Translation device

Publications (1)

Publication Number Publication Date
JPH09292971A true true JPH09292971A (en) 1997-11-11

Family

ID=14441493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10674696A Pending JPH09292971A (en) 1996-04-26 1996-04-26 Translation device

Country Status (1)

Country Link
JP (1) JPH09292971A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002123282A (en) * 2000-10-17 2002-04-26 Brother Ind Ltd Translation device and recording medium
US7676372B1 (en) 1999-02-16 2010-03-09 Yugen Kaisha Gm&M Prosthetic hearing device that transforms a detected speech into a speech of a speech form assistive in understanding the semantic meaning in the detected speech
JP2013073355A (en) * 2011-09-27 2013-04-22 Toshiba Corp Conversation support device, method and program
JP2013164515A (en) * 2012-02-10 2013-08-22 Toshiba Corp Voice translation device, voice translation method, and voice translation program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7676372B1 (en) 1999-02-16 2010-03-09 Yugen Kaisha Gm&M Prosthetic hearing device that transforms a detected speech into a speech of a speech form assistive in understanding the semantic meaning in the detected speech
JP2002123282A (en) * 2000-10-17 2002-04-26 Brother Ind Ltd Translation device and recording medium
JP2013073355A (en) * 2011-09-27 2013-04-22 Toshiba Corp Conversation support device, method and program
JP2013164515A (en) * 2012-02-10 2013-08-22 Toshiba Corp Voice translation device, voice translation method, and voice translation program

Similar Documents

Publication Publication Date Title
US6212282B1 (en) Wireless speaker system
US5982904A (en) Wireless headset
US6236969B1 (en) Wearable telecommunications apparatus with voice/speech control features
US4998291A (en) Radio telephone apparatus
US20030065504A1 (en) Instant verbal translator
US20020087555A1 (en) Electronic book data delivery apparatus, electronic book device and recording medium
US20050125235A1 (en) Method and apparatus for using earcons in mobile communication devices
US4731811A (en) Radiotelephone system, particularly for motor vehicles
US20050181826A1 (en) Handheld personal digital assistant for communicating with a mobile in music-playing operation
US5924068A (en) Electronic news reception apparatus that selectively retains sections and searches by keyword or index for text to speech conversion
US6381452B1 (en) Multifunction new-type audio player structure
US20020018556A1 (en) Method of generating ring tones using melody and communication terminal apparatus
US6438524B1 (en) Method and apparatus for a voice controlled foreign language translation device
US20080046239A1 (en) Speech-based file guiding method and apparatus for mobile terminal
US5444768A (en) Portable computer device for audible processing of remotely stored messages
US20100041447A1 (en) Wearable headset with self-contained vocal feedback and vocal command
US7043436B1 (en) Apparatus for synthesizing speech sounds of a short message in a hands free kit for a mobile phone
US20050208893A1 (en) Bluetooth earphone module with audio player function
US6233002B1 (en) Earphone system with operability improved and terminal equipment system with the earphone system
EP0720338A2 (en) Telephone-computer terminal portable unit
US7292880B2 (en) Hands-free function
US5910997A (en) Digitally programmable hearing aid communicable with external apparatus through acoustic signal
US5182765A (en) Speech recognition system with an accurate recognition function
KR20020013984A (en) A Telephone system using a speech recognition in a personal computer system, and a base telephone set therefor
US6931463B2 (en) Portable companion device only functioning when a wireless link established between the companion device and an electronic device and providing processed data to the electronic device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040609

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20041102