JPH08287070A - Language speaking device - Google Patents

Language speaking device

Info

Publication number
JPH08287070A
JPH08287070A JP7087180A JP8718095A JPH08287070A JP H08287070 A JPH08287070 A JP H08287070A JP 7087180 A JP7087180 A JP 7087180A JP 8718095 A JP8718095 A JP 8718095A JP H08287070 A JPH08287070 A JP H08287070A
Authority
JP
Japan
Prior art keywords
language
display
sentence
utterance
japanese
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7087180A
Other languages
Japanese (ja)
Inventor
Tomoe Maruta
智絵 丸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP7087180A priority Critical patent/JPH08287070A/en
Publication of JPH08287070A publication Critical patent/JPH08287070A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To display a sentence by a language familiar with a user and to speak the sentence by the objective language. CONSTITUTION: This language speaking device speaks a sentence by a language specified by a user out of Japanese, English, Hangul, and Chinese. A CPU 201 determines a display language in response to the depression of a button 206, reads out text data corresponding to the sentence selected by the user and the display language from a ROM 202 and displays the read data on a display 204. In addition, the CPU 201 determines a speaking language in accordance with button depression executed independently of the specification of the display language, reads out voice data corresponding to the sentence and the speaking language from the ROM 202 and sends the data to a voice IC 207 to generate voice from a speaker 209.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、予めメモリに記憶さ
れた各種の文例を視覚および聴覚を通じて使用者に提供
する言語発声装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech utterance device for providing a user with various sentence examples previously stored in a memory through visual and auditory senses.

【0002】[0002]

【従来の技術】従来、この種の装置として、以下のよう
なものがあった。 <従来例1>使用者によって指定された文例を発声する
と共にその文例を発声するときの言語と同じ言語でその
文例を表示する装置。 <従来例2>使用者によって指定された文例を複数の言
語で並列表示すると共にこれらの各言語のうち1種類の
言語でその文例を発声する装置。 <従来例3>発声用の言語は予め定められており、使用
者によって指定された文例を各種の言語で表示すると共
に、この表示をする言語の種類に拘わらず、所定の1種
類の言語でその文例を発声する装置。 <従来例4>基本言語と対象言語の2言語を設定し、表
示している言語と逆の言語で発声させる装置。
2. Description of the Related Art Conventionally, the following devices have been known as this type of device. <Prior art example 1> An apparatus which utters a sentence example designated by a user and displays the sentence example in the same language as that used when the sentence example is uttered. <Prior art example 2> A device for displaying a sentence example designated by a user in parallel in a plurality of languages and uttering the sentence example in one of these languages. <Prior art example 3> A language for utterance is predetermined, and a sentence example designated by the user is displayed in various languages, and one predetermined language is used regardless of the type of the displayed language. A device that speaks the sentence. <Prior art example 4> A device that sets two languages, a basic language and a target language, and speaks in a language opposite to the displayed language.

【0003】[0003]

【発明が解決しようとする課題】以上説明した各従来例
には以下のような問題があった。 (1)従来例1の問題点 所望の文例を母国語でない言語で発声させる場合、文例
の検索は母国語で行い、発声時に一度言語変換を行って
から、発声を行わなければならない。また、発声を行う
言語が使用者にとって全く未知の言語である場合、発声
中はその発声内容が意図した内容のものかを確認するこ
とができないため、発声終了後に再度言語変換を行っ
て、確認することとなる。例えばハングル語の知識を全
く持たない日本人の使用者がハングル語を使用したいと
きなど、その使用者は所望の文例をハングル語表示の状
態で検索することは不可能であるため、次のような煩雑
な手順に従うこととなる。 装置に日本語で文例を表示させ、所望の文例を検索に
より求める。 表示されている日本語による文例をハングル語に翻訳
させる。この結果、使用者の求めた文例がハングル語で
表示される。 装置に発声指示を与え、その文例をハングル語で発声
させる。 表示に使用する言語を日本語に戻し、意図した文例が
発声されたか否かを日本語表示の文例で確認する。
The conventional examples described above have the following problems. (1) Problems of Conventional Example 1 When uttering a desired sentence example in a language other than the native language, the sentence example must be searched in the native language, and the language must be converted once before uttering. Also, if the language to be uttered is completely unknown to the user, it is not possible to confirm whether the utterance content is the intended content during utterance. Will be done. For example, when a Japanese user who has no knowledge of Hangul wants to use Hangul, it is impossible for that user to search for a desired sentence example in the Hangul language display. You will have to follow a complicated procedure. Display a sentence example in Japanese on the device and search for the desired sentence example. Have the displayed example sentences in Japanese be translated into Hangul. As a result, the sentence example requested by the user is displayed in Hangul. A vocalization instruction is given to the device and the sentence example is spoken in Hangul. Return the language used for display to Japanese, and check whether the intended sentence is spoken or not with the sentence displayed in Japanese.

【0004】この従来例1に該当するものとして、例え
ば特開平6−242717号公報に開示の技術がある。
この公報に開示の技術は、中国語の表示に対しての発音
として、その方言などを複数種から指定出来るようにな
っているが、中国語に通じていない使用者が使用する際
に、発音させているものが、正確に所望の文章を指して
いるか、リアルタイムで確認することが、困難である。
As a technique corresponding to the conventional example 1, for example, there is a technique disclosed in Japanese Patent Laid-Open No. 6-242717.
The technology disclosed in this publication allows the user to specify the dialect, etc. from multiple types as the pronunciation for the Chinese display, but when a user who is not fluent in Chinese uses the pronunciation, It is difficult to confirm in real time whether or not what is being made accurately points to the desired sentence.

【0005】(2)従来例2の問題点 同時に複数言語を表示してしまうため、使用者が事前学
習などの用途でこの装置を使用する際に、その母国語訳
まで画面に表示されてしまうため、学習の妨げとなって
おり、使用者は自身の工夫でその部分を隠しながら操作
することを強いられてしまう。
(2) Problem of Conventional Example 2 Since a plurality of languages are displayed at the same time, when the user uses this device for a purpose such as pre-learning, the translation in his native language is also displayed on the screen. Therefore, learning is hindered, and the user is forced to operate while hiding the part by his own device.

【0006】(3)従来例3の問題点 使用する使用者に制限が生じる。例えばハングル語のみ
を発声する装置がある場合、日本語のみに通じた使用者
はこの装置を使用してハングル語で質問することはでき
るが、ハングル語のみに通じた使用者はこの装置を持っ
ていたとしても質問に対して日本語で返答することがで
きない。
(3) Problems of Conventional Example 3 There are restrictions on the users who use the device. For example, if there is a device that speaks only Hangul, a user who is fluent in Japanese can use this device to ask questions in Hangul, but a user who is fluent in Hangul only has this device. Even if it was, I could not answer the question in Japanese.

【0007】(4)従来例4の問題点 基本言語と対象言語の2言語を定めてしまうため、3種
以上の言語でコミュニケーションを行いたい場合には、
その都度言語の設定を行わねばならず、3言語以上のや
りとりは実際上はかなり困難なものである。
(4) Problems of Conventional Example 4 Since two languages, a basic language and a target language, are defined, when communication is to be performed in three or more languages,
The language must be set each time, and it is actually quite difficult to exchange in three or more languages.

【0008】この発明は、以上説明した事情に鑑みてな
されたものであり、上述した不都合を克服し、使用者に
とって表記の判読が困難な言語を発声することが必要な
状況下においても、使用者に煩雑な操作を要求すること
なく、文例を使用者が必要とする言語で発声することを
可能にした言語発声装置を提供することを目的としてい
る。
The present invention has been made in view of the above-described circumstances, and is used even in a situation in which it is necessary to overcome the above-mentioned inconvenience and to speak a language in which the notation is difficult for the user to read. It is an object of the present invention to provide a language utterance device that enables a user to utter a sentence example in a language required by a user without requiring the user to perform a complicated operation.

【0009】[0009]

【課題を解決するための手段】請求項1に係る発明は、
複数の言語の中から特定の言語による音声を発声する言
語発声装置において、特定の1つあるいは複数の言語に
よる文例を表示する表示手段と、発声すべき言語を選択
する言語選択手段と、発声を指示する発声指示手段と、
前記発声指示手段により発声の指示があった場合に、表
示されている言語種に拘わらず、前記言語選択手段によ
り指定された言語あるいは方言等で発声する言語発声装
置とを具備することを特徴とする言語発声装置を要旨と
する。
The invention according to claim 1 is
In a language utterance device for uttering a voice in a specific language from a plurality of languages, a display unit for displaying a sentence example in a specific one or a plurality of languages, a language selecting unit for selecting a language to be uttered, and a voicing Voicing instruction means for instructing,
When the utterance instruction unit gives an utterance instruction, regardless of the displayed language type, a language utterance device that utters in a language or dialect specified by the language selection unit is provided. The main point is a language voicing device that does.

【0010】請求項2に係る発明は、請求項1記載の装
置において、発声すべき言語の種類を表示する表示手段
を更に具備することを特徴とする言語発声装置を要旨と
する。請求項3に係る発明は、請求項1記載の装置にお
いて、発声すべき言語と同一言語による文例の表示を行
わないようにする手段を更に具備することを特徴とする
言語発声装置を要旨とする。
A second aspect of the present invention provides a language utterance device characterized by further comprising display means for displaying the type of language to be uttered in the device according to the first aspect. The invention according to claim 3 provides a language utterance device characterized in that the device according to claim 1 is further provided with means for not displaying a sentence example in the same language as the language to be uttered. .

【0011】[0011]

【作用】上記請求項1に係る発明によれば、表記の判読
がユーザにとって困難な言語を発声させたい時であって
も、発声すべき文例の検索は例えば母国語等、検索に適
した言語で行い、検索により得られた文例を発声する際
には目的の言語で発声させることができる。請求項2に
係る発明によれば、現在如何なる言語で発声が行われて
いるかを容易に確認することができる。請求項3に係る
発明によれば、発声を行っている言語と同一言語での文
例の表示は行わないようにすることができるので、ヒア
リング学習を効果的に進めることができる。
According to the first aspect of the present invention, even when the user wants to utter a language that is difficult for the user to read the notation, the search for the sentence example to be uttered is a language suitable for the search, such as a native language. And when uttering the sentence example obtained by the search, it can be uttered in the target language. According to the invention of claim 2, it is possible to easily confirm in what language the utterance is currently made. According to the invention of claim 3, it is possible not to display the sentence example in the same language as the spoken language, so that the hearing learning can be effectively advanced.

【0012】[0012]

【実施例】以下、図面を参照し、本発明の実施例につい
て説明する。 <第1実施例>図1はこの発明の第1実施例による言語
発声装置の外観を示す平面図である。この図において、
2068は電源ボタン、209はスピーカである。ま
た、204はディスプレイであり、使用者に提供する文
例を表示するための文例表示部2041と、当該文例を
発声させる際の言語を表示する発声言語表示部2042
とを有している。本実施例では、日本語、英語、韓国語
および中国語の4種の言語を取り扱っており、これらの
言語の頭文字が言語表示部2042に表示されている。
そして、現在、如何なる言語で発声が行われているかに
ついては、発声言語表示部2042に表示された4個の
頭文字のうち該当する言語のものの表示を反転させるこ
とにより、使用者に知らせるようになっている。図1の
例では英語の頭文字“英”が反転表示されており、現
在、英語で発声が行われていることが示されている。
Embodiments of the present invention will be described below with reference to the drawings. <First Embodiment> FIG. 1 is a plan view showing the appearance of a speech utterance apparatus according to a first embodiment of the present invention. In this figure,
2068 is a power button, and 209 is a speaker. Reference numeral 204 denotes a display, which is a sentence example display unit 2041 for displaying a sentence example provided to the user, and a utterance language display unit 2042 for displaying a language for uttering the sentence example.
And have. In this embodiment, four languages, Japanese, English, Korean, and Chinese are handled, and the initial letters of these languages are displayed on the language display unit 2042.
Then, the language in which the utterance is currently made is notified to the user by reversing the display of the language in the corresponding one of the four initial letters displayed in the utterance language display unit 2042. Has become. In the example of FIG. 1, the English initial "English" is highlighted, which indicates that the utterance is currently being performed in English.

【0013】ディスプレイ204の下部には、カーソル
を左方向、右方向、上方向および下方向へ各々移動させ
るためのカーソルキー2061〜2064が設けられて
いる。そして、これらのカーソルキーの下部には、文例
表示部2041に文例を表示させる際の言語を指定する
表示言語変更ボタン2065、文例表示部2041に表
示されている文例の発声を指示するための発声ボタン2
066および発声の際の言語を選択するための発声言語
変更ボタン2067が設けられている。
At the bottom of the display 204, cursor keys 2061 to 2064 for moving the cursor leftward, rightward, upward and downward respectively are provided. Then, below these cursor keys, a display language change button 2065 for designating a language for displaying a sentence example on the sentence example display unit 2041 and a utterance for instructing the utterance of the sentence example displayed on the sentence example display unit 2041. Button 2
066 and a utterance language change button 2067 for selecting a language for utterance are provided.

【0014】図2はこの言語発声装置の機能構成を示す
ブロック図である。この図において、201はこの言語
発声装置内の各部を制御するCPU(中央処理装置)で
あり、RAM(ランダムアクセスメモリ)210を内蔵
している。202はROM(リードオンリメモリ)であ
り、種々の文例の表示あるいは発声を行うための各種デ
ータを記憶している。なお、このROM202の記憶内
容については後述する。203は表示用ドライバであ
り、CPU201による制御の下、ディスプレイ204
に駆動信号を供給し、文例等の表示を行わせる。205
はボタン入力装置、206は図1における各種ボタン2
061〜2068等からなるボタン群である。ボタン群
206を構成する各ボタンのON/OFF状態はボタン
入力装置205を介しCPU201によって検出され
る。207は音声IC(集積回路)であり、CPU20
1による制御の下、使用者に提供する文例の音声信号を
形成する。この音声IC207によって形成された音声
信号はアンプ208によって増幅され、スピーカ209
から音声として出力される。
FIG. 2 is a block diagram showing the functional arrangement of this language utterance apparatus. In this figure, reference numeral 201 denotes a CPU (central processing unit) that controls each unit in the language utterance apparatus, and has a RAM (random access memory) 210 built therein. Reference numeral 202 denotes a ROM (Read Only Memory), which stores various data for displaying or uttering various sentence examples. The contents stored in the ROM 202 will be described later. Reference numeral 203 denotes a display driver, which is under the control of the CPU 201.
A drive signal is supplied to the display device to display a sentence example. 205
Is a button input device, 206 is various buttons 2 in FIG.
It is a button group including 061 to 2068. The ON / OFF state of each button forming the button group 206 is detected by the CPU 201 via the button input device 205. Reference numeral 207 is a voice IC (integrated circuit),
Under the control of 1, the voice signal of the sentence example provided to the user is formed. The audio signal formed by the audio IC 207 is amplified by the amplifier 208, and the speaker 209
Is output as audio from.

【0015】図3はRAM210内に設定された各種デ
ータ記憶エリアを示すものである。これらの記憶エリア
には以下の情報が記憶される。 a.表示言語記憶エリア このエリアには、使用者に提供する文例をディスプレイ
204の文例表示部2041に表示する際に、如何なる
言語で表示するかを指定する表示言語指定情報が書き込
まれる。 b.発声言語記憶エリア このエリアには、使用者に提供する文例をスピーカ20
9から発声する際に、如何なる言語で発声するかを指定
する発声言語指定情報が書き込まれる。 c.読み出し番地記憶エリア このエリアには、読み出しを行うべきROM202内の
番地を指定する情報が書き込まれる。 d.読み出しバンク記憶エリア このエリアには、読み出しを行うべきROM202内の
バンクを指定する情報が書き込まれる。なお、バンクの
意味するところについては後述する。
FIG. 3 shows various data storage areas set in the RAM 210. The following information is stored in these storage areas. a. Display language storage area In this area, display language designation information for designating which language to display when the sentence example provided to the user is displayed on the sentence example display unit 2041 of the display 204 is written. b. Spoken language storage area In this area, the speaker 20 is provided as an example of sentences provided to the user.
When speaking from 9, the speaking language designation information for designating which language to speak is written. c. Read address storage area In this area, information designating an address in the ROM 202 to be read is written. d. Read Bank Storage Area In this area, information designating a bank in the ROM 202 to be read is written. The meaning of the bank will be described later.

【0016】ROM202には、図4に示すように、各
種文例を表すテキストデータおよびそれらの文例を発声
するための音声データが記憶されている。本実施例で
は、日本語、英語、ハングル語(韓国語)および中国語
の4ヵ国語の文例を使用者に提供するため、ROM20
2にはこれらの4ヵ国語に対応したテキストデータが記
憶され、これに続いて4ヵ国語に対応した音声データが
記憶されている。また、本実施例が使用者に提供する各
文例にはフレーズ番号と呼ばれるシリアル番号が付与さ
れている。そして、各文例に対応した4ヵ国語分のテキ
ストデータおよび音声データにも、その文例に付与され
たフレーズ番号と同一のフレーズ番号が付与されてい
る。
As shown in FIG. 4, the ROM 202 stores text data representing various sentence examples and voice data for uttering those sentence examples. In the present embodiment, the ROM 20 is provided in order to provide the user with example sentences in four languages of Japanese, English, Hangul (Korean) and Chinese.
Text data corresponding to these four languages is stored in 2, and subsequently, voice data corresponding to the four languages is stored. A serial number called a phrase number is given to each sentence example provided to the user by this embodiment. The same phrase number as the phrase number given to the sentence example is also given to the text data and voice data for four languages corresponding to each sentence example.

【0017】図5は4ヵ国語に対応した音声データの記
憶状態をさらに詳細に示したものである。図5に示すよ
うに、ROM202内の音声データ用の記憶領域は、日
本語音声格納バンク、英語音声格納バンク、ハングル語
音声格納バンクおよび中国語音声格納バンクに区分され
ている。各バンクの記憶内容は次の通りである。
FIG. 5 shows in more detail the storage state of the voice data corresponding to four languages. As shown in FIG. 5, the storage area for voice data in the ROM 202 is divided into a Japanese voice storage bank, an English voice storage bank, a Hangul voice storage bank, and a Chinese voice storage bank. The memory contents of each bank are as follows.

【0018】まず、日本語音声格納バンクには日本語音
声データテーブルが記憶されており、この日本語音声デ
ータテーブルに続いて、日本語で表現された各文例の音
声データがフレーズ番号順に記憶されている。これらの
音声データは、各々当該文例に対応した音声波形を表す
時系列のデジタルデータである。各文例の音声波形の持
続時間は区々であるため、各文例を構成する音声データ
も当該音声波形の持続時間に応じたバイト数の可変長デ
ータとなっている。
First, a Japanese voice data table is stored in the Japanese voice storage bank, and following this Japanese voice data table, voice data of each sentence example expressed in Japanese is stored in the order of phrase numbers. ing. Each of these voice data is time-series digital data representing a voice waveform corresponding to the sentence example. Since the duration of the voice waveform of each sentence example is different, the voice data forming each sentence is also variable length data of the number of bytes according to the duration of the voice waveform.

【0019】日本語音声格納バンクに記憶された各文例
の音声データは、各々のフレーズ番号に基づいてその所
在が求められ、ROM202から読み出される。日本語
音声データテーブルは、このようなフレーズ番号に基づ
く音声データのアクセスを可能ならしむために記憶され
たテーブルであり、各文例に対応した音声データの先頭
のデータの格納アドレスをフレーズ番号順に順次定義し
ている。ここで、ROM202の各アドレスは各々1バ
イトの容量を有しており、ROM202のアドレスは2
バイトを用いて表現される。このため、各フレーズ番号
に対応した音声データの格納アドレスも日本語音声デー
タテーブル内の連続した2アドレスを使用して記憶され
ている。従って、あるフレーズ番号に対応した音声デー
タの格納アドレスを日本語音声データテーブルから読み
出す場合には、そのフレーズ番号を2倍した値を相対番
地として使用し、読み出しを行えばよい。
The location of the voice data of each sentence stored in the Japanese voice storage bank is determined based on each phrase number and read from the ROM 202. The Japanese voice data table is a table stored in order to enable access to voice data based on such phrase numbers, and the storage address of the first data of voice data corresponding to each sentence example is sequentially defined in the order of phrase numbers. are doing. Here, each address of the ROM 202 has a capacity of 1 byte, and the address of the ROM 202 is 2 bytes.
Expressed using bytes. Therefore, the storage address of the voice data corresponding to each phrase number is also stored using two consecutive addresses in the Japanese voice data table. Therefore, when the storage address of the voice data corresponding to a certain phrase number is read from the Japanese voice data table, the value obtained by doubling the phrase number may be used as the relative address and read.

【0020】図5にはフレーズ番号3の日本語音声デー
タを読み出す際の手順が図示されている。すなわち、C
PU201は、まず、日本語音声データテーブルを参照
することにより、フレーズ番号3に対応した音声データ
の格納アドレス3111Hを得る。次いでCPU201
はROM202内の3111H番地から始まる連続した
アドレスに記憶された一連のデジタルデータを読み出
す。これがフレーズ番号3に対応した文例の音声波形を
表す日本語音声データである。
FIG. 5 shows a procedure for reading Japanese voice data of phrase number 3. That is, C
The PU 201 first obtains the storage address 3111H of the voice data corresponding to the phrase number 3 by referring to the Japanese voice data table. Then CPU 201
Reads a series of digital data stored in the ROM 202 at consecutive addresses starting from address 3111H. This is Japanese voice data representing the voice waveform of the sentence example corresponding to phrase number 3.

【0021】他の3ヵ国に対応した英語音声格納バン
ク、ハングル語音声格納バンクおよび中国語音声格納バ
ンクにも、全く同じ態様で各国言語に対応した音声デー
タテーブルおよび音声データが記憶されており、いずれ
のバンクにおいても、各文例に対応した音声データがフ
レーズ番号順に記憶されている。これらの各国言語によ
る音声データも、上記日本語音声データの場合と同様、
読み出すべき文例のフレーズ番号に基づいて所在が求め
られ、ROM202から読み出される。
The voice data table and voice data corresponding to each language are stored in exactly the same manner in the English voice storage bank, the Hangul voice storage bank and the Chinese voice storage bank corresponding to the other three countries. In each bank, voice data corresponding to each sentence example is stored in the order of phrase numbers. The voice data in these national languages is also the same as the case of the Japanese voice data above.
The location is obtained based on the phrase number of the sentence example to be read, and is read from the ROM 202.

【0022】以下、本実施例の動作を説明する。本実施
例に係る言語発声装置において、電源ボタン2068が
押圧されると、CPU201は初期設定処理を実行す
る。この初期設定処理により、RAM210の表示言語
記憶エリアおよび発声言語記憶エリアには日本語による
表示および発声を指定する情報が各々ディフォルト値と
して書き込まれる。
The operation of this embodiment will be described below. In the language uttering apparatus according to the present embodiment, when the power button 2068 is pressed, the CPU 201 executes the initial setting process. By this initialization processing, information designating display and utterance in Japanese is written as default values in the display language storage area and the utterance language storage area of the RAM 210.

【0023】この状態において、使用者はカーソルキー
等の操作により、表示すべき文例の検索の指示および文
例の表示を他のものへ変更すべき旨のコマンドを入力す
ることができる。このコマンドはボタン入力装置205
を介してCPU201により検知される。CPU201
は、このコマンドに従い、ディスプレイ204に表示す
べき新たな文例のテキストデータであって、表示言語記
憶エリアの記憶内容によって指定された言語(初期設定
時は日本語)に対応したものをROM202から読み出
し、このテキストデータを表示させるための表示情報を
表示用ドライバ203に供給する。この結果、図6のボ
ックス301内に例示されているように使用者により選
択された文例が表示される。なお、文例を選択するまで
の動作については、例えば特開平5−324702号公
報(発明の名称:情報処理装置)等に開示されているも
のと同様であり、従来のものと何等変るところがないの
で説明を省略する。
In this state, the user can input a command to search for a sentence example to be displayed and a command to change the display of the sentence example to another one by operating the cursor key or the like. This command is a button input device 205
It is detected by the CPU 201 via. CPU201
Reads from the ROM 202 text data of a new sentence example to be displayed on the display 204 in accordance with this command, which corresponds to the language designated by the stored contents of the display language storage area (Japanese at the initial setting). The display information for displaying the text data is supplied to the display driver 203. As a result, the sentence example selected by the user is displayed as illustrated in the box 301 of FIG. The operation up to the selection of the sentence example is the same as that disclosed in, for example, Japanese Patent Laid-Open No. 5-324702 (Title of Invention: Information Processing Device), and there is no difference from the conventional one. The description is omitted.

【0024】所望の文例が表示された状態において、発
声ボタン2066が押されると、この押圧操作がボタン
入力装置205を介してCPU201により検知され
る。この結果、CPU201により、現在表示中の文例
を発声すべく、図7にフローを示す指定言語発声ルーチ
ンが実行される。
When the voice button 2066 is pressed while the desired sentence example is displayed, this pressing operation is detected by the CPU 201 via the button input device 205. As a result, the CPU 201 executes the designated language utterance routine whose flow is shown in FIG. 7 in order to utter the currently displayed sentence example.

【0025】まず、CPU201は、RAM210にお
ける発声言語記憶エリア内の情報を参照し、発声言語が
日本語であることを検知する。そして、この日本語の音
声データが格納されているROM202内のバンクをア
クセス対象たるROMアクセスバンクとして設定する
(ステップS1)。次にステップS2に進み、現在表示
されている文例「こんにちは」に割り当てられているフ
レーズ番号を2倍した値を音声データテーブルアドレス
として設定する(ステップS2)。次にステップS3に
進み、音声データテーブルの各エリアのうち音声データ
テーブルアドレスに対応したエリアから、現在表示中の
文例に対応した音声データの格納アドレスを読み出し、
ROM202の読み出しアドレスの初期値として設定す
る。このようにして現在表示中の文例「こんにちは」を
日本語で発声するための音声データを読み出すための読
み出しアドレスの初期値が設定された訳である。
First, the CPU 201 refers to the information in the speaking language storage area in the RAM 210 and detects that the speaking language is Japanese. Then, the bank in the ROM 202 storing the Japanese voice data is set as the ROM access bank to be accessed (step S1). Next, in step S2, sets the phrase number assigned to the phrase "hello" currently displayed twice value as voice data table address (step S2). Next, in step S3, the storage address of the voice data corresponding to the currently displayed sentence example is read from the area corresponding to the voice data table address in each area of the voice data table,
It is set as the initial value of the read address of the ROM 202. In this way, it is why the initial value of the read address for reading out the voice data in order to say the phrase "Hello" is currently being displayed in Japanese has been set.

【0026】次にCPU201は、ROM202におけ
る現在の読み出しアドレスによって指定されたエリアか
ら文例「こんにちは」の音声を構成する最初の音声デー
タを読み出し(ステップS4)、音声IC207へ出力
する(ステップS5)。次にステップS6に進むと、C
PU201は、ROM202から読み出したデータが音
声の終了を表すエンドデータか否かを判断する。この判
断結果が「NO」の場合はROM202の読み出しアド
レスを進め(ステップS7)、ステップS4に戻る。以
後、ステップS6においてエンドデータが検出されるま
でステップS4〜S7が繰り返され、文例「こんにち
は」の音声を構成する2番目、3番目、4番目、…の音
声データがROM202から順次読み出され、音声IC
207に供給される。そして、音声IC207により、
これらの一連の音声データの復号、D/A変換等が行わ
れ、これにより得られるアナログ音声信号がアンプ20
8によって増幅され、スピーカ209に供給される。こ
の結果、スピーカ209により、文例「こんにちは」が
日本語で発声される(図6におけるボックス302参
照)。そして、CPU201が文例「こんにちは」に対
応した音声のエンドデータをROM202から読み出す
と、ステップS6の判断結果が「YES」となり、指定
言語ルーチンが終了する。
[0026] Then CPU201 reads the first audio data constituting the audio phrase "Hello" from the area specified by the current read address in ROM 202 (step S4), and outputs to the sound IC 207 (step S5). Next, in step S6, C
The PU 201 determines whether the data read from the ROM 202 is end data indicating the end of voice. If the result of this determination is "NO", the read address of the ROM 202 is advanced (step S7), and the process returns to step S4. Thereafter, step S4~S7 until the end data is detected is repeated at step S6, 2-th constituting the voice example sentence "Hello", third, fourth, ... of audio data are sequentially read from the ROM 202, Voice IC
207 is supplied. Then, by the voice IC 207,
Decoding of a series of these audio data, D / A conversion, etc. are performed, and the analog audio signal obtained by this is converted into
Amplified by 8 and supplied to the speaker 209. As a result, the speaker 209, paragraph "Hello" is uttered in Japanese (see box 302 in FIG. 6). When reading the audio end data CPU201 is corresponding to sentence example "Hello" from the ROM 202, the determination result of step S6 is "YES", the language specified routine ends.

【0027】次に発声言語変更ボタン2067が使用者
によって押圧されると、この押圧操作がボタン入力装置
205を介してCPU201に検知される。この結果、
CPU201は、RAM210の発声言語記憶エリア内
の発声言語指定情報を日本語を指定するものから英語を
指定するものに書き換える。また、発声言語表示部20
42において表示を反転させる文字を日本語の頭文字で
ある“日”から英語の頭文字である“英”に変更する。
この結果、ディスプレイ204の表示状態は図6のボッ
クス303によって示すものとなる。
Next, when the user presses the voicing language change button 2067, this pressing operation is detected by the CPU 201 via the button input device 205. As a result,
The CPU 201 rewrites the utterance language designation information in the utterance language storage area of the RAM 210 from one that designates Japanese to one that designates English. In addition, the spoken language display unit 20
At 42, the character whose display is reversed is changed from the Japanese initial "Sun" to the English initial "English".
As a result, the display state of the display 204 is indicated by the box 303 in FIG.

【0028】その後、発声ボタン2066が押される
と、再びCPU201により、現在表示中の文例を発声
すべく、図7にフローを示す指定言語発声ルーチンが実
行される。ただし、前回は日本語での発声が行われたの
に対し、今回は英語で発声が行われる。
After that, when the utterance button 2066 is pressed, the CPU 201 again executes the designated language utterance routine whose flow is shown in FIG. 7 in order to utter the sentence example currently displayed. However, the voice was spoken in Japanese last time, whereas the voice was spoken in English this time.

【0029】すなわち、CPU201は、RAM210
における発声言語記憶エリア内の情報を参照し、発声言
語が英語であることを検知し、この英語の音声データに
対応したROM202内のバンクをROMアクセスバン
クとして設定する(ステップS1)。次に文例「こんに
ちは」のフレーズ番号に基づいて音声データテーブルア
ドレスを設定する(ステップS2)。そして、この設定
した音声データテーブルのエリアから、文例「こんにち
は」を英語で発声するための音声データが格納されたR
OM202のアドレスを読み出し、このアドレスをRO
M202の読み出しアドレスの初期値として設定する
(ステップS3)。以後、上述したと同様に、ステップ
S4〜S7が繰り返し実行される。この結果、文例「こ
んにちは」が英語で発声される(図6におけるボックス
304参照)。
That is, the CPU 201 has the RAM 210.
By referring to the information in the utterance language storage area at, it is detected that the utterance language is English, and the bank in the ROM 202 corresponding to this English voice data is set as the ROM access bank (step S1). Then it sets the audio data table address on the basis of the phrase number of the example sentence "Hello" (Step S2). Then, from the area of voice data table this setting, the audio data for uttering the phrase "Hello" in English is stored R
Read the address of OM202 and use this address as RO
The read address of M202 is set as the initial value (step S3). After that, steps S4 to S7 are repeatedly executed as described above. As a result, the phrase "Hello" is spoken in English (see box 304 in FIG. 6).

【0030】使用者は、以上説明したのと同様な操作を
することにより、現在表示中の文例を、その表示言語を
変えることなく任意の言語で発声させることができる。
すなわち、発声言語変更ボタン2067を押してから発
声ボタン2066を押す操作を繰り返すことにより、文
例「こんにちは」を日本語で表示させたまま、この文例
をハングル語、中国語により発声させることができる
(図6におけるボックス305〜308参照)。また、
この間、現在発声に使用している言語を発声言語表示部
2042の表示に基づいて確認することができる。
By performing the same operation as described above, the user can utter the currently displayed sentence example in any language without changing the display language.
That is, by repeating the operation of pressing the speech button 2066 from pushing the utterance language change button 2067, the phrase "Hello" while it is displayed in Japanese, this phrase Hangul, can be uttered by Chinese (Fig. See boxes 305-308 in 6). Also,
During this period, the language currently used for utterance can be confirmed based on the display of the utterance language display unit 2042.

【0031】その後、表示言語変更ボタン2065が押
されると、CPU201は、RAM210内の表示言語
記憶エリア内の表示言語指定情報を日本語に対応したも
のから英語に対応したものに書き換える。そして、CP
U201は、この新たな表示言語指定情報に基づき、英
語に対応したテキストデータをROM202から読み出
しディスプレイ204に表示させる。また、この表示言
語の変更に伴い、発声言語の表示もそれまでの「日」
「英」「韓」「中」から“JPN”“ENG”“KR
A”“CHN”に変更する(図6におけるボックス30
9参照)。以後、CPU201は、使用者によって文例
が選択された場合、その文例に対応した英語のテキスト
データをROM202から読み出しディスプレイ204
に表示させる。
Then, when the display language change button 2065 is pressed, the CPU 201 rewrites the display language designation information in the display language storage area in the RAM 210 from the one corresponding to Japanese to the one corresponding to English. And CP
Based on this new display language designation information, the U 201 reads out text data corresponding to English from the ROM 202 and displays it on the display 204. In addition, due to this change in the display language, the display of the utterance language will also change to "day".
From "English", "Korea", "Chinese" to "JPN", "ENG", "KR"
Change to “A” “CHN” (box 30 in FIG. 6)
9). Thereafter, when the user selects a sentence example, the CPU 201 reads out the English text data corresponding to the sentence example from the ROM 202 and displays it on the display 204.
To display.

【0032】使用者が表示言語変更ボタン2065をさ
らに繰り返し押した場合には、この押圧操作が行われる
毎に、RAM210内の表示言語記憶エリア内の表示言
語指定情報の指定が、ハングル語、中国語、日本語、…
というように順次更新される。そして、更新後の表示言
語指定情報によって指定された言語で文例の表示が行わ
れる。
When the user repeatedly presses the display language change button 2065, the display language specification information in the display language storage area in the RAM 210 is changed to Hangul or Chinese each time the pressing operation is performed. Japanese, Japanese, ...
And so on. Then, the sentence example is displayed in the language designated by the updated display language designation information.

【0033】なお、上記実施例に関しては以下のような
変形を行うことが可能である。 (1)上記実施例では発声言語の表示を「日」「英」
「韓」「中」というように各国の頭文字で表したが、各
国を示す記号、絵によるピクトグラムを表示するように
してもよい。 (2)発声言語の表示をマークなどを用いて行い、表示
言語が如何なる言語であっても各国毎に定められた同一
のマークを表示させるようにしてもよい。
The following modifications can be made to the above embodiment. (1) In the above embodiment, the display of the spoken language is "Japanese" or "English".
The initials of each country, such as “Korean” and “Chinese”, are used, but pictograms with symbols or pictures indicating each country may be displayed. (2) The utterance language may be displayed by using a mark or the like, and the same mark determined for each country may be displayed regardless of the display language.

【0034】<第2実施例>本実施例は、文例を4ヵ国
の言語で使用者に提供するという点に関しては上記第1
実施例と同様であるが、文例をディスプレイに表示する
際に複数ヵ国分の文例を各国の言語で並列に表示する。
このため、本実施例は、前掲図1における表示言語変更
ボタン2065に相当するものは有していない。また、
上記第1実施例におけるRAM210内の表示言語記憶
エリアに相当するものも不要であり、その分、CPUが
行うRAM210のアクセス制御が簡単なものとなる。
また、本実施例においては、上記第1実施例と同様、発
声言語変更ボタンの押下に応答して、文例を発声する際
の言語の変更を行う。しかし、本実施例においては、こ
のようにして発声に使用するものとして指定された言語
については、当該言語での文例の表示を行わないように
することができる。他の点については、上記第1実施例
と同様である。従って、本実施例に係る装置の構成に関
しては特に図示は行わず、上記第1実施例の説明に使用
したものを援用する。
<Second Embodiment> In the present embodiment, with respect to providing sentence examples to users in the languages of four countries, the first embodiment described above is used.
Similar to the embodiment, when the sentence examples are displayed on the display, the sentence examples for a plurality of countries are displayed in parallel in the languages of the respective countries.
For this reason, this embodiment does not have a button corresponding to the display language change button 2065 shown in FIG. Also,
What is equivalent to the display language storage area in the RAM 210 in the first embodiment is also unnecessary, and the access control of the RAM 210 performed by the CPU can be simplified accordingly.
Further, in this embodiment, as in the first embodiment, the language for uttering a sentence example is changed in response to the pressing of the utterance language change button. However, in this embodiment, with respect to the language designated as the one used for utterance in this way, it is possible not to display the sentence example in the language. The other points are the same as in the first embodiment. Therefore, the structure of the apparatus according to the present embodiment is not particularly illustrated, and the one used for the description of the first embodiment is used.

【0035】図8および図9は、本実施例に係る装置の
使用時におけるディスプレイの表示状態の遷移を例示し
たものであり、本実施例の最も特徴的な動作を示してい
る。以下、これらの図を参照し、本実施例の動作を説明
する。
FIGS. 8 and 9 exemplify the transition of the display state of the display when the apparatus according to this embodiment is used, and show the most characteristic operation of this embodiment. The operation of this embodiment will be described below with reference to these drawings.

【0036】電源立上げ直後は、初期設定された条件に
従って表示制御および発声制御が行われる。すなわち、
使用者により選択された文例を表す4ヵ国の言語で表し
たもののすべてが並列に表示される(図8におけるボッ
クス310)。また、発声ボタンが押下されると、初期
設定時にディフォルトとして設定された日本語により、
使用者によって選択された文例の発声が行われる(図8
におけるボックス311)。なお、このディフォルトと
して設定する言語については、本実施例に係る言語発声
装置の主な使用者の母国等を考慮して決定すればよい。
Immediately after the power is turned on, display control and voicing control are performed according to the initially set conditions. That is,
All four language representations of the example sentence selected by the user are displayed in parallel (box 310 in FIG. 8). Also, when the voicing button is pressed, the default Japanese at the time of initial setting
The example sentence selected by the user is uttered (FIG. 8).
Box 311). It should be noted that the language set as the default may be determined in consideration of the home country of the main user of the language utterance apparatus according to this embodiment.

【0037】次に発声言語変更ボタン2067が押され
ると、CPU201(図2)により、RAM210の発
声言語記憶エリア(図3)に日本語に対応した情報が書
き込まれる。この結果、ディスプレイ204へ文例を表
示する際には、この発声言語記憶エリア内の情報が参照
され、日本語以外の3ヵ国語での文例の表示が行われ
る。すなわち、CPU201により、現在、使用者によ
って選択されている文例、例えば「こんにちは」に対応
した英語テキストデータ、ハングル語テキストデータお
よび中国語テキストデータがROM202から読み出さ
れ、各々に対応した表示情報が表示用ドライバ203へ
送られる。この結果、ディスプレイ204の各言語に対
応した表示エリアに「こんにちは」に相当する英語文、
ハングル語文および中国語文が各々表示される(図8に
おけるボックス312)。
Next, when the voicing language change button 2067 is pressed, the CPU 201 (FIG. 2) writes information corresponding to Japanese into the voicing language storage area (FIG. 3) of the RAM 210. As a result, when the sentence example is displayed on the display 204, the information in the utterance language storage area is referred to, and the sentence example is displayed in three languages other than Japanese. In other words, the CPU201, current, example sentences that have been selected by the user, English text data corresponding to, for example, "Hello", Hangul text data and the Chinese text data is read out from the ROM202, the display information corresponding to each It is sent to the display driver 203. As a result, the English sentence that corresponds to the "Hello" is displayed on the display area corresponding to each of the language of the display 204,
Hangul and Chinese sentences are displayed respectively (box 312 in FIG. 8).

【0038】その後、発声ボタン2066が押される
と、RAM210の発声言語記憶エリアに日本語に対応
した情報が格納されていることからROM202におけ
る日本語音声格納バンクがアクセスすべきバンクとして
設定され、この日本語音声格納バンクから使用者により
指定された文例に対応した日本語音声データが読み出さ
れ、音声IC207に送られる。この結果、スピーカ2
09から例えば「こんにちは」という具合に日本語で文
例が発声させる(図8におけるボックス313)。
After that, when the utterance button 2066 is pressed, since the information corresponding to Japanese is stored in the utterance language storage area of the RAM 210, the Japanese voice storage bank in the ROM 202 is set as the bank to be accessed. Japanese voice data corresponding to the sentence example designated by the user is read from the Japanese voice storage bank and sent to the voice IC 207. As a result, the speaker 2
Phrases can be uttered in the Japanese from 09, for example, and so on "Hello" (box 313 in FIG. 8).

【0039】再び発声言語変更ボタン2067が押され
ると、RAM210の発声言語記憶エリアの内容が英語
に対応した内容に書き換えられる。この結果、ディスプ
レイ204へ文例の表示する際には、この発声言語記憶
エリア内の情報が参照され、使用者によって選択されて
いる文例の英語以外の3ヵ国分の各テキストデータがR
OM202から読み出され、各々に対応した表示情報が
表示用ドライバ203へ送られる。この結果、ディスプ
レイ204の各言語に対応した表示エリアに使用者によ
り選択された文例の日本語文、ハングル語文および中国
語文が各々表示される(図8におけるボックス31
4)。
When the utterance language change button 2067 is pressed again, the contents of the utterance language storage area of the RAM 210 are rewritten to the contents corresponding to English. As a result, when the sentence example is displayed on the display 204, the information in the utterance language storage area is referred to, and the text data for three countries other than English of the sentence example selected by the user is R.
The display information read from the OM 202 and corresponding to each is sent to the display driver 203. As a result, the Japanese sentence, the Hangul sentence, and the Chinese sentence of the sentence example selected by the user are displayed in the display areas corresponding to the respective languages of the display 204 (box 31 in FIG. 8).
4).

【0040】そして、発声ボタン2066が押される
と、RAM210の発声言語記憶エリア内の情報に従
い、ROM202における英語音声格納バンクがアクセ
スすべきバンクとして設定され、この英語音声格納バン
クから使用者により指定された文例の英語音声データが
読み出され、音声IC207に送られる。この結果、ス
ピーカ209から英語で文例が発声させる(図8におけ
るボックス315)。
When the voicing button 2066 is pressed, the English voice storage bank in the ROM 202 is set as the bank to be accessed according to the information in the voiced language storage area of the RAM 210, and is designated by the user from this English voice storage bank. The English voice data of the sentence example is read and sent to the voice IC 207. As a result, the sentence example is uttered in English from the speaker 209 (box 315 in FIG. 8).

【0041】ハングル語または中国語で発声を行う場合
も以上と同様な動作が行われる(図9におけるボックス
316〜319)。そして、中国語での発声を行う状態
において、発声言語変更ボタン2067が押されると、
RAM210の発声言語記憶エリアには発声を行わない
旨の情報が書き込まれる。この結果、使用者によって選
択されている文例に対応した4ヵ国語分の各テキストデ
ータがROM202から読み出され、各々に対応した表
示情報が表示用ドライバ203へ送られる。この結果、
ディスプレイ204に使用者が選択した文例の日本語
文、英語文、ハングル語文および中国語文が各々表示さ
れる(図9におけるボックス320)。さらに発声言語
変更ボタン2067が押されると、RAM210の発声
言語記憶エリアの内容が再び日本語に対応した内容に更
新され、既に説明したものと同じ動作が行われる。
The same operation as described above is performed when speaking in Hangul or Chinese (boxes 316 to 319 in FIG. 9). Then, when the utterance language change button 2067 is pressed in the state of uttering in Chinese,
Information indicating that no utterance is made is written in the utterance language storage area of the RAM 210. As a result, the text data of four languages corresponding to the sentence example selected by the user is read from the ROM 202, and the display information corresponding to each is sent to the display driver 203. As a result,
The Japanese sentence, the English sentence, the Hangul sentence, and the Chinese sentence of the sentence example selected by the user are displayed on the display 204 (box 320 in FIG. 9). Further, when the utterance language change button 2067 is pressed, the contents of the utterance language storage area of the RAM 210 are updated again to the contents corresponding to Japanese, and the same operation as described above is performed.

【0042】従来の言語発声装置の中にも、以上説明し
た実施例のように文例を複数の言語で並列に表示するタ
イプのものがあったが、この種の従来装置はヒアリング
学習に使用している時にそのヒアリング対象の言語まで
表示されてしまうことが、学習の妨げとなっていた。し
かしながら、本実施例によれば、ヒアリングの対象たる
発声言語についてはその表示が行われないため、かかる
不具合が生じず、効果的な学習を行うことができる。
Among the conventional language voicing devices, there is a type of displaying sentence sentences in parallel in a plurality of languages as in the above-described embodiment, but this type of conventional device is used for hearing learning. While learning, the language that was the subject of the hearing was displayed, which hindered learning. However, according to the present embodiment, since the spoken language which is the target of the hearing is not displayed, such a problem does not occur and effective learning can be performed.

【0043】<第3実施例>図10に本実施例に係る装
置に電気的構成を示す。また、本実施例に係る装置の外
観を図11に示す。上述した第1実施例および第2実施
例は、発声言語変更ボタンの操作に応答してRAM21
0の発声言語記憶エリアの内容を更新し、この発声言語
記憶エリアの内容により指定された言語に対応したRO
M内のバンクをアクセスするものであった。
<Third Embodiment> FIG. 10 shows the electrical construction of the apparatus according to this embodiment. Further, the external appearance of the apparatus according to this embodiment is shown in FIG. In the first and second embodiments described above, the RAM 21 responds to the operation of the utterance language change button.
The content of the utterance language storage area of 0 is updated, and the RO corresponding to the language specified by the content of the utterance language storage area is updated.
It was to access the bank in M.

【0044】本実施例は、図10および図11に示すよ
うに各言語に対応した発声ボタン2066a〜2066
dを有している。これらのボタン2066a〜2066
cには、図10に示すように各ボタンによってON/O
FF切り換えが行われるスイッチが各々設けられてい
る。これらのスイッチは保持型のスイッチであり、ボタ
ンによってON状態とされるとON状態を維持し、再
度、ボタンが押下されるとOFF状態に戻る。また、各
スイッチのON/OFF状態は排他的な関係にあり、あ
るスイッチがON状態であるときに他のスイッチがON
状態とされると、それまでON状態であったスイッチは
OFF状態に戻される。すなわち、ON状態となるスイ
ッチの個数は最大1個である。
In this embodiment, as shown in FIGS. 10 and 11, utterance buttons 2066a to 2066 corresponding to each language.
d. These buttons 2066a-2066
In c, ON / O by each button as shown in FIG.
Each switch for performing FF switching is provided. These switches are holding-type switches, and when the button is turned on, the switch maintains the on state, and when the button is pressed again, the switch returns to the off state. Also, the ON / OFF state of each switch is in an exclusive relationship, and when one switch is ON, the other switch is ON.
When the switch is put in the state, the switch that has been in the ON state until then is returned to the OFF state. That is, the maximum number of switches that are turned on is one.

【0045】また、本実施例は、図10に示すように、
各々、日本語、英語、ハングル語および中国語に対応し
た音声データを記憶したROM2021〜2024を有
している。また、発声ボタン2066a〜2066cに
対応した各スイッチはバッファ220を介してROM2
021〜2024に接続され、各スイッチのうちON状
態となっているスイッチに対応したROMのみを読み出
し可能状態とし、CPU201による音声データの読み
出しを行わせる構成としている。
In this embodiment, as shown in FIG.
Each has ROM 2021 to 2024 in which voice data corresponding to Japanese, English, Hangul, and Chinese is stored. In addition, each switch corresponding to the voice buttons 2066a to 2066c is stored in the ROM 2 via the buffer 220.
Only the ROM corresponding to the switch that is connected to the switches 021 to 2024 and is in the ON state is set to the readable state so that the CPU 201 can read the audio data.

【0046】本実施例によれば、使用者が所望の言語に
対応した発声ボタンを押すと、ROM2021〜202
4のうち当該の言語に対応したものが選択される。そし
て、使用者により選択された文例(すなわち、ディスプ
レイ204に表示中の文例)の当該言語に対応した音声
データが発声ボタン2066a〜2066cのうち押圧
されたものに対応したROMから読み出され、音声IC
207、アンプ208を介してスピーカ209へ供給さ
れ(図2参照)、当該言語での文例の発声が行われる。
本実施例の場合は、CPU201は発声言語が何である
か認識する必要がないため、制御のための負担が少なく
て済む。また、発声言語数を増減させる場合には、上記
ボタンおよびスイッチと音声データ記憶のためのROM
の個数を発声言語数に合わせて増減すればよい。CPU
201が各ROM内の音声データをアクセスする際に
は、上記第1実施例において説明したように、ROM内
の音声データテーブルの中から、発声すべき文例のフレ
ーズ番号に対応した情報を読み出し、この読み出した情
報によりアドレス指定されたアドレスから目的とする音
声データを読み出す。従って、音声データ記憶のための
ROMを何個設けたとしても、CPU201が実行する
音声データの読み出しのための処理内容は全く影響を受
けず、従って制御プログラムの変更等は一切不要であ
る。
According to the present embodiment, when the user presses the utterance button corresponding to the desired language, the ROMs 2021 to 2022
Of the four, the one corresponding to the relevant language is selected. Then, the voice data corresponding to the language of the sentence example selected by the user (that is, the sentence example being displayed on the display 204) is read from the ROM corresponding to the pressed one of the vocalization buttons 2066a to 2066c, IC
It is supplied to the speaker 209 via the amplifier 207 and the amplifier 208 (see FIG. 2), and the example sentence in the language is uttered.
In the case of the present embodiment, since the CPU 201 does not need to recognize what the utterance language is, the burden of control can be reduced. When the number of spoken languages is increased or decreased, the buttons and switches described above and a ROM for storing voice data are used.
The number of can be increased or decreased according to the number of spoken languages. CPU
When 201 accesses the voice data in each ROM, as described in the first embodiment, information corresponding to the phrase number of the sentence example to be uttered is read from the voice data table in the ROM. Target audio data is read from the address specified by the read information. Therefore, no matter how many ROMs for storing the voice data are provided, the processing contents for reading the voice data executed by the CPU 201 are not affected at all, and therefore the control program need not be changed at all.

【0047】なお、本実施例には変形例が考えられる。
例えば、上記のようにスイッチを複数設けるのではな
く、パルスを発生するための1個のスイッチと、このパ
ルスによりデータ“1”を巡回的にシフトするシフトレ
ジスタとによりリングカウンタを構成し、シフトレジス
タの各ステージの出力信号によりROMを選択するよう
にしてもよい。
A modified example can be considered in this embodiment.
For example, instead of providing a plurality of switches as described above, one switch for generating a pulse and a shift register that cyclically shifts data "1" by this pulse constitute a ring counter, You may make it select ROM by the output signal of each stage of a register.

【0048】また、以上説明した各実施例では、日本
語、英語、ハングル語および英語の4ヵ国語を取り扱っ
たが、言語の選択が任意であることは言うまでもない。
また、表示の言語種数と発声される言語種数は等しくな
くてもよい。例えば中国語は同一の文であっても地方に
よって多種多様な発声が行われるが、このような各種の
方言の音声データをROMに格納しておき、使用者が選
択したものを提供するようにしてもよい。この場合、文
例の表示は日本語の状態で、その文例に対応する中国語
を発声する際には、複数種類の方言の中から所望のもの
を選択することができる。
In each of the embodiments described above, four languages, Japanese, English, Hangul and English, are dealt with, but it goes without saying that the language can be selected arbitrarily.
Further, the number of displayed language types and the number of spoken language types may not be equal. For example, in Chinese, even if the same sentence is used, a wide variety of utterances are made depending on the region. However, the voice data of such various dialects is stored in the ROM so that the one selected by the user is provided. May be. In this case, the sentence example is displayed in Japanese, and when uttering Chinese corresponding to the sentence example, a desired one can be selected from a plurality of types of dialects.

【0049】[0049]

【発明の効果】以上説明した事項から明らかなように、
本発明によれば、例えば韓国で日本人が道を尋ねたい時
など、訪ねる側は日本語の表示を見ながら、相手にはハ
ングル語の音声でスムーズに質問を行うことができる。
また、表示言語と発声言語を別々に管理しているため、
3種以上の言語間のコミュニケーションでも、それぞれ
が母国語表示をさせながら相手の言語で発声させること
が可能である。
As is apparent from the matters described above,
According to the present invention, for example, when a Japanese person wants to ask a way in Korea, the visiting person can smoothly ask a question to the other person with a voice in Hangul while watching the display in Japanese.
Also, because the display language and the utterance language are managed separately,
Even in communication between three or more languages, it is possible to speak in the language of the other party while each displaying the native language.

【図面の簡単な説明】[Brief description of drawings]

【図1】 この発明の第1実施例による言語発声装置の
外観を示す平面図である。
FIG. 1 is a plan view showing the appearance of a speech utterance device according to a first embodiment of the present invention.

【図2】 同実施例の機能構成を示すブロック図であ
る。
FIG. 2 is a block diagram showing a functional configuration of the embodiment.

【図3】 同実施例におけるRAM210の記憶内容を
示す図である。
FIG. 3 is a diagram showing stored contents of a RAM 210 in the same embodiment.

【図4】 同実施例におけるROM202の記憶内容を
示す図である。
FIG. 4 is a diagram showing storage contents of a ROM 202 in the embodiment.

【図5】 同実施例におけるROM202から音声デー
タを読み出す際の動作を説明する図である。
FIG. 5 is a diagram illustrating an operation when reading audio data from the ROM 202 in the embodiment.

【図6】 同実施例の動作を示すフローチャートであ
る。
FIG. 6 is a flowchart showing the operation of the embodiment.

【図7】 同実施例の動作を示すフローチャートであ
る。
FIG. 7 is a flowchart showing the operation of the embodiment.

【図8】 この発明の第2実施例による言語発声装置の
動作を示すフローチャートである。
FIG. 8 is a flowchart showing the operation of the speech utterance system according to the second embodiment of the present invention.

【図9】 同実施例の動作を示すフローチャートであ
る。
FIG. 9 is a flowchart showing the operation of the embodiment.

【図10】 この発明の第3実施例による言語発声装置
の機能構成を示すブロック図である。
FIG. 10 is a block diagram showing a functional configuration of a speech utterance device according to a third embodiment of the present invention.

【図11】 同実施例の外観を示す平面図である。FIG. 11 is a plan view showing the outer appearance of the embodiment.

【符号の説明】[Explanation of symbols]

201 CPU 210 RAM 202 ROM 203 表示用ドライバ 204 ディスプレイ 205 ボタン入力装置 206 ボタン 207 音声IC 208 アンプ 209 スピーカ 201 CPU 210 RAM 202 ROM 203 Display Driver 204 Display 205 Button Input Device 206 Button 207 Voice IC 208 Amplifier 209 Speaker

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 複数の言語の中から特定の言語による音
声を発声する言語発声装置において、 特定の1つあるいは複数の言語による文例を表示する表
示手段と、 発声すべき言語を選択する言語選択手段と、 発声を指示する発声指示手段と、 前記発声指示手段により発声の指示があった場合に、表
示されている言語種に拘わらず、前記言語選択手段によ
り指定された言語あるいは方言等で発声する言語発声装
置とを具備することを特徴とする言語発声装置。
1. A language utterance apparatus for uttering a voice in a specific language from a plurality of languages, a display unit for displaying a sentence example in a specific one or a plurality of languages, and a language selection for selecting a language to be uttered. Means, a voicing instruction means for instructing utterance, and utterance in the language or dialect etc. designated by the language selecting means regardless of the displayed language type when the utterance instruction is given by the voicing instruction means. A language utterance device for performing a language utterance.
【請求項2】 請求項1記載の装置において、発声すべ
き言語の種類を表示する表示手段を更に具備することを
特徴とする言語発声装置。
2. The language utterance apparatus according to claim 1, further comprising display means for displaying the type of language to be uttered.
【請求項3】 請求項1記載の装置において、発声すべ
き言語と同一言語による文例の表示を行わないようにす
る手段を更に具備することを特徴とする言語発声装置。
3. The language voicing device according to claim 1, further comprising means for not displaying a sentence example in the same language as the language to be uttered.
JP7087180A 1995-04-12 1995-04-12 Language speaking device Pending JPH08287070A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7087180A JPH08287070A (en) 1995-04-12 1995-04-12 Language speaking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7087180A JPH08287070A (en) 1995-04-12 1995-04-12 Language speaking device

Publications (1)

Publication Number Publication Date
JPH08287070A true JPH08287070A (en) 1996-11-01

Family

ID=13907797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7087180A Pending JPH08287070A (en) 1995-04-12 1995-04-12 Language speaking device

Country Status (1)

Country Link
JP (1) JPH08287070A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008135041A (en) * 2003-08-27 2008-06-12 King Jim Co Ltd Tape printer
JP2021110890A (en) * 2020-01-15 2021-08-02 カゴメ株式会社 Electronic learning program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008135041A (en) * 2003-08-27 2008-06-12 King Jim Co Ltd Tape printer
JP2021110890A (en) * 2020-01-15 2021-08-02 カゴメ株式会社 Electronic learning program

Similar Documents

Publication Publication Date Title
JP3102866B2 (en) Spoken language translator
JP4237915B2 (en) A method performed on a computer to allow a user to set the pronunciation of a string
JP3248981B2 (en) calculator
JPS6238716B2 (en)
JP2002116796A (en) Voice processor and method for voice processing and storage medium
JP3178426B2 (en) Natural language dialogue system and natural language dialogue program recording medium
US4489396A (en) Electronic dictionary and language interpreter with faculties of pronouncing of an input word or words repeatedly
JP2011504624A (en) Automatic simultaneous interpretation system
JP2001318592A (en) Device for language study and method for language analysis
JP2007193166A (en) Dialog device, dialog method, and program
JPH08278972A (en) Speech input translation device
JPH08287070A (en) Language speaking device
JP4924148B2 (en) Pronunciation learning support device and pronunciation learning support program
TW200926085A (en) Intelligent conversion method with system for Chinese and the international phonetic alphabet (IPA)
JP6383748B2 (en) Speech translation device, speech translation method, and speech translation program
JPH07199989A (en) Speech recognition device
JP2005106844A (en) Voice output device, server, and program
KR100457400B1 (en) Method for Output of Unit Sentence of Digital Language Study Device
JP7379968B2 (en) Learning support devices, learning support methods and programs
JPH09288493A (en) Voice recognizing method and voice recognition device and information processing method and information processor
JP2003216607A (en) Electronic translating apparatus
JPH1011461A (en) Retrieval device applying recognition of voice
JPH10283358A (en) Device for outputting language information
JP2004109579A (en) Device and method for backup of natural language learning
JP2006053709A (en) Data communication terminal, and jump control program to be executed by computer of data communication terminal