JPH02242325A - Computer system - Google Patents

Computer system

Info

Publication number
JPH02242325A
JPH02242325A JP1062621A JP6262189A JPH02242325A JP H02242325 A JPH02242325 A JP H02242325A JP 1062621 A JP1062621 A JP 1062621A JP 6262189 A JP6262189 A JP 6262189A JP H02242325 A JPH02242325 A JP H02242325A
Authority
JP
Japan
Prior art keywords
voice
displayed
message
audio
audio output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1062621A
Other languages
Japanese (ja)
Inventor
Hiroshi Sugihara
寛 杉原
Hideki Takagi
英樹 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP1062621A priority Critical patent/JPH02242325A/en
Publication of JPH02242325A publication Critical patent/JPH02242325A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To easily recognize the display contents and the contents of a voice output and to improve the effect of learning by displaying an image after the voice output is ended. CONSTITUTION:When a voice command is detected, a document editing device 1 transmits a state check command to a voice output device 2, and when a response signal from the voice output device 2 is in a transmittable state, a prescribed message is displayed. Subsequently, the voice output device 2 outputs a voice corresponding to the message, and transmits a voice message end signal to the document editing device 1. The document editing device 1 which receives the voice message end signal displays the next message. In such a manner, the character-string of one word, one sentence, plural sentences, etc., is displayed, a voice corresponding to its character-string can be synchronized arbitrarily, and the learning effect by a CAI can be improved.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は表示手段と音声出力手段とを有する計算機シス
テムに関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a computer system having a display means and an audio output means.

〔従来の技術〕[Conventional technology]

現在、映像や音声媒体としてT’aoe(テープ) 、
CD −ROM (Couact Disc−Read
 0nlyHenory ’) 、CD −1(CoI
Ioact Disc−Interactve) 、L
D (Laser Disc> 、VTR(Video
 TapeRecorder ) 、等を利用したご1
1支援による教育CA r < cortoutar^
5sisted In5truction )がある。
Currently, T'aoe (tape) is used as a video and audio medium.
CD-ROM (Couact Disc-Read
0nlyHenory'), CD-1(CoI
Ioact Disc-Interactve), L
D (Laser Disc>, VTR (Video)
TapeRecorder), etc. 1
1 Supported education CA r < cortoutar^
5sisted In5truction).

 この計淳機支援による教育において、計算機と音声媒
体とを接続して情報交換を行う場合、その計t5別に備
えられたデイスプレィ(あるいはモニター)に表示され
る文字と、音声出力装置から出力される音声との同期方
式として、従来では、次に述べる方式が一般的である。
In education supported by Keijunki, when information is exchanged by connecting a computer and an audio medium, the characters displayed on the display (or monitor) provided for each t5 and the information output from the audio output device Conventionally, the following method is common as a synchronization method with audio.

すなわち、 ■計算機からの信号によってデイスプレィに一画面分の
文字の表示を開始すると同時に、音声出力装置から音声
を出力する方式。
Namely, (1) A method in which the display starts displaying one screen of characters based on a signal from the computer, and at the same time outputs audio from the audio output device.

■削算機からの信号によってデイスプレィに一画面分の
文字を表示し、すべての表示が終了した段叱で、計算機
から音声出力装置に音声出力要求信号を送って音声を出
力さゼる方式。
■A method in which one screen of characters is displayed on the display using a signal from the calculator, and when all the characters have been displayed, a voice output request signal is sent from the computer to the voice output device to output the voice.

〔光明が解決しようとげる課題〕[Issues that Komei aims to solve]

ところで、上記従来の表示文字と音声の同期方式におい
て、 上記■で説明した方式にあっては、一画面分の文字が表
示されると同時に、表示された文字に対応する音声も出
力されるため、学習者が音声を間きながら画面上に表示
された文字を追うことは極めて困難であり、学習効果を
向上させることが極めて困難であった。
By the way, in the conventional method of synchronizing displayed characters and audio, in the method described in item However, it is extremely difficult for learners to follow the characters displayed on the screen while listening to the audio, making it extremely difficult to improve the learning effect.

他方、上記■で説明した方式にあっては、一画面分の文
字が表示された後、その表示された文字に対応する音声
が表示されるため、学習者は現在どの部分の文字にえ1
応する音声が出力されているかをQ glするのに手間
取ることになり、Q gした文字と音声出力とが一致し
ないことが類繁におこり、学習効果を向上させることが
極めて困難であった。
On the other hand, in the method described in item (■) above, after one screen of characters is displayed, the sound corresponding to the displayed character is displayed, so the learner can tell which part of the character the character is currently on.
It takes a lot of time to check whether the corresponding voice is being output, and it often happens that the recorded characters and the voice output do not match, making it extremely difficult to improve the learning effect.

本発明は上記実情に鑑みてなされたものであり、画面表
示と音μmを用いて教育効果を向上させることのできる
計鈴機システムを捏供することを目的とする。
The present invention has been made in view of the above-mentioned circumstances, and an object of the present invention is to provide a bell machine system that can improve the educational effect by using screen display and sound μm.

(課題を解決するための手段) 本発明は、表示手段に表示されるべき1画面分の画像を
予め設定された表示単位の画像毎に表示させるとともに
、前記表示単位の画像毎に、表示内容に対応する音声を
出力する音声出力手段に対して予め設定されたコマンド
を送出して所定の音声を出力させ、当該音声出力手段か
ら送出された音声出力の終了を示す信号を受信した後逸
に表示すべき画像を表・示させる制御手段を設【プたも
のである。
(Means for Solving the Problem) The present invention displays one screen worth of images to be displayed on a display means for each image of a preset display unit, and displays display content for each image of the display unit. A preset command is sent to the audio output means that outputs the sound corresponding to the audio output means to output a predetermined sound, and the signal is displayed after receiving a signal indicating the end of the audio output sent from the audio output means. This system is equipped with a control means for displaying the desired image.

(作用) 木光明では、表示単位の画像が表示手段に表示されると
ともに、その表示内容に対応する音声が音声出力手段か
ら出力される。そして音声出力手段からの音声出力が終
了した後、次に表示されるべき表示単位の両件が表示手
段に表示される。
(Function) In Kikomei, the image of the display unit is displayed on the display means, and the sound corresponding to the displayed content is output from the sound output means. After the audio output from the audio output means is completed, both display units to be displayed next are displayed on the display means.

〔実施例〕〔Example〕

以下、本光明に係る計わ傭システムの実施例を添付図面
を参照して説明する。
Hereinafter, embodiments of the arrangement system according to the present invention will be described with reference to the accompanying drawings.

第1図は本発明に係る計54F!システムの一実施例を
示す概略構成図である。同図において、ワークステーシ
ョン等の支出編集装置1と音声を出力するコンパクトデ
ィスクプレーヤ(CDプレーヤ)等の音声出力装置2と
がR8232Cインタフエース等の専用ケーブル3を介
して接続されている。
Figure 1 shows a total of 54F according to the present invention! FIG. 1 is a schematic configuration diagram showing an example of a system. In the figure, an expenditure editing device 1 such as a workstation and an audio output device 2 such as a compact disc player (CD player) that outputs audio are connected via a dedicated cable 3 such as an R8232C interface.

音声出力菰は2Gよ、文書編集に置1から送出されたコ
マンドを入力すると、音声情報が記録されたコンパクト
ディスクから、文1 rs ’J=装置1に表示された
表示内容に対応する音声情報を読み出して、音声を出力
するとともに、当該音声出力を終了した場合は、支出編
集装置1に対して音声出力を終了した旨の信号を出力す
る。
The audio output code is 2G. When you input the command sent from the device 1 into the document editor, the audio information corresponding to the display content displayed on the device 1 is output from the compact disc on which the audio information is recorded. is read out and outputs audio, and when the audio output is finished, a signal to the effect that the audio output is finished is output to the expenditure editing device 1.

なお音声出力装置2には、ヘッドフォン2Aが接続され
、学と者はヘッドフォン2Aを使用して音声を聞くこと
になる。
Note that a headphone 2A is connected to the audio output device 2, and the student listens to the audio using the headphone 2A.

第2図は文m編集装置1を示すブロック図を示したもの
であり、同図において、キーボード/マウス制御部11
は、キーボード12、マウス13からの各種データ、指
令等を入力制御する。
FIG. 2 shows a block diagram showing the sentence m editing device 1, and in the same figure, a keyboard/mouse control section 11 is shown.
inputs and controls various data, commands, etc. from the keyboard 12 and mouse 13.

ディスク制御部14は、各柿データ、後述する処理手順
を示すフローチャートに基づくプログラムを含む所定の
プログラム、および一画面分の画情報が、予め設定され
た表示単位の画像を示す画情報毎に分割されている学習
内容の情報等を格納しているディスク15に対するアク
セス制御を行う。
The disk control unit 14 divides each persimmon data, a predetermined program including a program based on a flowchart showing a processing procedure described later, and image information for one screen into each image information indicating a preset display unit image. Access control is performed to the disk 15 that stores information on the learning contents being taught.

表示制御部16は、デイスプレィ用の表示装置17に対
して、各1a機能に応じたウィンドウ、表示単位の画!
&岳に上記学習内容等を表示させる。
The display control unit 16 controls the display device 17 to display windows and display unit images according to each function 1a.
& Display the above learning contents etc. on Gaku.

実メモリ18は、RAMから構成され、システムの運用
を行うオペレーティングシスデム・プログラム、キーボ
ード12、マウス13からの8種データ群および指令群
等を格納する。
The real memory 18 is composed of a RAM, and stores an operating system program for operating the system, eight types of data groups from the keyboard 12, the mouse 13, a command group, and the like.

通信制御部19は、通信ボート20に接続される通信回
線〈専用ケーブル3)と中央処1iI!装置(以下、C
PUという)21とを接続するとともに、CPLI 2
1とのデータ送受の制御や通信回線上でのデータ伝送に
必要な制tiD信号の送受等を行う。
The communication control unit 19 connects a communication line (dedicated cable 3) connected to the communication boat 20 and a central processing unit 1iI! equipment (hereinafter referred to as C
21 (referred to as PU), and CPLI 2
1 and transmits/receives the TiD signal necessary for data transmission on the communication line.

CPU21は、上記各制御部および実メモリ18を制御
する。
The CPU 21 controls each of the control units and the real memory 18 described above.

次に上記計算機システムの画面表示と音声出力との同明
方式を第3図のフローチャートに基づき説明する。
Next, the same method of screen display and audio output of the above-mentioned computer system will be explained based on the flowchart of FIG.

なお、実施例では、画面表示と音声出力との同期の文書
)1位を一文章とする。また[CD:010]という音
声コマンドに対応してNo、10の音声情報に対応する
音声が出ツノされるものとする。
In the embodiment, the first place (document for synchronization of screen display and audio output) is assumed to be one sentence. Further, it is assumed that in response to the voice command [CD:010], a voice corresponding to the voice information of No. 10 is output.

まずCPU2 iは、入力された[CD:0101とい
う音声コマンドを検知したら、音声出力装置a2に状態
チエツクのための状態チエツク」マントを送信ザる(ス
テップ100)。
First, when the CPU 2 i detects the input voice command "CD:0101", it transmits a "status check" command to the voice output device a2 (step 100).

その状態チエツクコマンドは、通信制御部19、通信ボ
ート20および専用ケーブル3を経て音声出力袋e2に
入力される。
The status check command is input to the audio output bag e2 via the communication control section 19, communication boat 20, and dedicated cable 3.

状態チエツクコマンドを受信した音声出力装置2は、自
己の状態を示す応答18号を文書編集装置1に対して送
出するくステップ200)。
The voice output device 2, which has received the status check command, sends a response No. 18 indicating its own status to the document editing device 1 (step 200).

音声出力装置2から出力された応答信号は、専用ケーブ
ル3、通信ボート20および通信制御部19を経てCP
LI21に入力される。するとCPU21は、入力され
た応答信号をチエツクして、音声出力装置2が正常か否
かを判断しくステップ101)、応答信号が送信不可能
状態を示している信号の場合には、エラーメツセージを
表示装置17に表示させ(ステップ102)、反対に、
応答信号が送信可能状態を示している信号の場合は、次
に全てのメツセージの表示を終了したが否かを判断する
(ステップ103)、ここで、終了していない場合、C
PU21は、メツセージを表示装置17に表示させ(ス
テップ104)、その後、音声出力装置2に対し、表示
されたメツセージに対応するNo、10の音声情報に対
応する音声を出力するように音声出力要求コマンドを送
信する(ステップ105)。
The response signal output from the audio output device 2 is sent to the CP via the dedicated cable 3, the communication boat 20, and the communication control unit 19.
It is input to LI21. Then, the CPU 21 checks the input response signal to determine whether the audio output device 2 is normal or not (step 101), and if the response signal is a signal indicating that transmission is not possible, sends an error message. displayed on the display device 17 (step 102), and conversely,
If the response signal is a signal indicating a transmittable state, it is then determined whether or not all messages have been displayed (step 103). If not, C
The PU 21 displays the message on the display device 17 (step 104), and then issues a voice output request to the voice output device 2 to output voice corresponding to the voice information of No. 10 corresponding to the displayed message. A command is sent (step 105).

入力された音声出力要求コマンドに応答して、音声出力
装置2は、NO,10の音声情報を検索し、該当する音
声を出力しくステップ201)、さらにNo、10の音
声情報に対応する音声の出力を全て終了したら、その旨
を示す音声メツセージ終了@号を文書a集装置1に対し
て送信しくステップ202)、次のメツセージの出力に
備える。
In response to the input audio output request command, the audio output device 2 searches for the audio information of No. 10, outputs the corresponding audio (step 201), and further searches for the audio information of No. 10 (step 201). When all the outputs have been completed, a voice message completion @ sign indicating this is sent to the document a collection device 1 (step 202), in preparation for outputting the next message.

なお、No、10の音声情報に対応する音声が音声出力
袋ff12から出力されているときは、表示袋@17は
待機状態になっている。
Note that when the audio corresponding to the audio information No. 10 is being output from the audio output bag ff12, the display bag @17 is in a standby state.

ところでCPU21は、音声メツセージ終了信号を受信
すると(ステップ106)、上記ステップ103に戻り
、このステップ以降を実行する。
By the way, when the CPU 21 receives the voice message end signal (step 106), it returns to step 103 and executes the steps after this step.

また、ステップ103において全てのメツセージの表示
を終了した場合、あるいは上記ステップ102を終了し
た場合は、同明方式の処理を終了する。
Furthermore, when displaying all messages is finished in step 103, or when step 102 is finished, the Domei system processing is finished.

上述した動作を具体例を示して説明すると、例えば、第
4図に示すように、文S編集装置1は、入力された[C
D:010]という音声コマンドを検知したら、音声出
力袋e2に状態チエツクコマンドを送信しく5lop、
そのコマンドを受信した音声出力装置2からの応答信@
(311)が送信可能状態を示す信号であった時は、所
定のメツセージ、たとえば、r今日は、天気がいい。」
を表示させた後、音声出力装置2に対してN0110の
音声情報に対応する音声を出力するように音声出力要求
コマンドを送信する(812)。
To explain the above-mentioned operation using a specific example, for example, as shown in FIG.
D:010] is detected, send a status check command to the voice output bag e2.
Response message from the audio output device 2 that received the command @
When (311) is a signal indicating a transmittable state, a predetermined message is sent, for example, rThe weather is nice today. ”
is displayed, an audio output request command is sent to the audio output device 2 to output the audio corresponding to the audio information of N0110 (812).

これに応答して、音声出力装置2は、N0110の音声
情報を検索し、メツレージ[今日は、天気がいい。]に
対応する音声を出力するとともに、該当するメツセージ
に対応する音声の出力を全て終了したら音声メツセージ
終了信号を文書編集装置1に送信する(S13)。この
音声メツセージ終了信号を受信した文書編集装置1では
、次のメツセージ、例えば、[だから外に出ることは・
出来ません。」を表示することになる。
In response to this, the audio output device 2 searches for the audio information of N0110 and outputs the message "The weather is nice today." ], and when all the sounds corresponding to the corresponding message have been output, a voice message end signal is transmitted to the document editing device 1 (S13). When the document editing device 1 receives this voice message end signal, it sends the next message, for example, [So I can't go outside.
Can not do. ' will be displayed.

次に上記計算機システムの他の実施例を示す画面表示と
音声出力との同期方式を第5図のフローヤードに基づき
説明する。
Next, a method of synchronizing screen display and audio output in another embodiment of the computer system will be described based on the flowchart of FIG.

なお、この実施例においても、上記第3図で説明した実
施例と同様に、画面表示と音声出力との同期の文書単位
を一文章とする。また[CD : 0101という音声
コマンドに対応してNo、10の音声情報に対応する音
声が出力されるものとする。
In this embodiment as well, the document unit for synchronizing screen display and audio output is one sentence, similar to the embodiment described in FIG. 3 above. Further, it is assumed that in response to the voice command [CD: 0101, a voice corresponding to the voice information of No. 10 is output.

まずCPLI 21は、入力された[CD:0101と
いう音声コマンドを検知したら、音声出力装置2に状態
ヂエックコマンドを送信する(ステップ300)。
First, when the CPLI 21 detects the input voice command [CD:0101], it transmits a status check command to the voice output device 2 (step 300).

CPU21から送出された状態チエツクコマンドを受信
した音声出力装置2は、自己の状態を示す応答信号を支
出編集装置1に対して送出する(ステップ400)。
The voice output device 2, which has received the status check command sent from the CPU 21, sends a response signal indicating its own status to the expenditure editing device 1 (step 400).

音声出力装置2から送出された応答信号を入力した文書
編集装置1では、CPU21は、その応答信号をチエツ
クして、音声出力装置2が正常か否かを判断しくステッ
プ301)、異常(送信不可能状態)である場合には、
エラーメツセージを表示装置17に表示させ(ステップ
302) 、反対に、正常(送信可能状態)である場合
は、次に全てのメツセージの表示を終了したか否かを判
断する(ステップ303)。ここで終了していない場合
、CPU 21は、メツセージを表示装置17に表示さ
せる(ステップ3o4)と同時に、音声出力装置2に対
し、表示されたメツセージに対応するNo、10の音声
情報に対応する音声を出力するように音声出力要求コマ
ンドを送信する(ステップ305)。
In the document editing device 1 that has received the response signal sent from the audio output device 2, the CPU 21 checks the response signal and determines whether the audio output device 2 is normal or not. possible state), then
The error message is displayed on the display device 17 (step 302), and on the other hand, if the status is normal (sendable), it is then determined whether all messages have been displayed (step 303). If the process has not ended here, the CPU 21 causes the message to be displayed on the display device 17 (step 3o4), and at the same time causes the voice output device 2 to display the voice information corresponding to No. 10 corresponding to the displayed message. A voice output request command is transmitted to output voice (step 305).

入力された音声出力要求コマンドに応答して、音声出力
装置2は、No、10の音声情報に対応する音声を出力
しくステップ401)、さらにNO,10の音声情報に
対応する音声の出力を全て終了したら、その旨を示す音
声メツセージ終了信号を支出編集装置1に対して送信し
くステップ402)、次のメツセージの出力に備える。
In response to the input audio output request command, the audio output device 2 outputs the audio corresponding to the audio information of No. 10 (step 401), and further outputs all the audio corresponding to the audio information of No. 10. Upon completion, a voice message end signal indicating this is transmitted to the expenditure editing device 1 (step 402), in preparation for outputting the next message.

CPU21は、音声出力装置2から送信された音声メツ
セージ終了信号を受信すると(ステップ306) 、次
のメツセージを表示させるためのコマンドが入力される
まで待機しくステップ3o7)、そのコマンドが入力さ
れた場合は、上記ステップ303に戻り、このステップ
以降を実行する。
When the CPU 21 receives the voice message end signal transmitted from the voice output device 2 (step 306), it waits until a command to display the next message is input (step 3o7), and when that command is input, Then, the process returns to step 303 and executes the steps after this step.

また、ステップ303において全てのメツセージの表示
を終了した場合、あるいは上記ステップ302を終了し
た場合は、同期方式の処理を終了する。
Further, when displaying all messages is finished in step 303, or when step 302 is finished, the synchronization method processing is finished.

上述した動作を具体例を示して説明すると、例えば、第
6図に示すように、文りam装置1は、入力された[C
D:0101という音声コマンドを検知したら、音声出
力装置2に状態チエツクコマンドを送信しく820>、
そのコマンドを受信した音声出力装置2からの応答信号
(821>が送信可能状態を示す信号であった時は、所
定のメツセージ、たとえば、「今日は、天気がいい。」
を表示すると同時に、音声出力装置2に対してN091
0の音声情報に対応する音声を出力するように音声出力
要求コマンドを送信(822>する。
To explain the above-mentioned operation using a specific example, for example, as shown in FIG.
When the voice command D:0101 is detected, a status check command is sent to the voice output device 2820>,
When the response signal (821>) from the voice output device 2 that received the command is a signal indicating a transmittable state, a predetermined message, for example, "The weather is nice today."
At the same time, N091 is displayed on the audio output device 2.
An audio output request command is sent (822>) to output the audio corresponding to the audio information of 0.

これに応答して、音声出力装置2は、No、10の音声
情報を検索し、メツセージ「今日は、天気がいい。」に
対応する音声を出力するとともに、該当するメツセージ
に対応する音声の出力を全て終了したら音声メツセージ
終了信Bを支出編集装置1に送信する(S23)。この
音声メツセージ終了信号を受信した文書編集装置1では
、次のメツセージ、例えば、「だから外に出ることは出
来ません。」を表示°することになる。
In response to this, the voice output device 2 searches for the voice information of No. 10, outputs the voice corresponding to the message "The weather is nice today," and outputs the voice corresponding to the message. When all of the steps are completed, a voice message completion message B is sent to the expenditure editing device 1 (S23). When the document editing device 1 receives this voice message end signal, it displays the next message, for example, ``Therefore, you cannot go outside.''.

なお文書編集装置1は、NO,10のメツセージの出力
開始から終了までの時間と、表示装置17に表示される
文字の表示開始から終了までの時間を計口して、メツセ
ージの終了と表示される文字の終了とを一致させる。こ
れによって表示装置17に表示されるメツセージと、音
声出力装置から出力されるメツセージとの一文章単位の
同期が取れることになる。
Note that the document editing device 1 calculates the time from the start to the end of outputting the message No. 10 and the time from the start to the end of displaying the characters displayed on the display device 17, and displays the end of the message. Match the end of the character. As a result, the message displayed on the display device 17 and the message output from the audio output device can be synchronized on a sentence-by-sentence basis.

上述したようにCPLI21から出力される、表示装置
17へのメツセージを表示させる信号と、音声出力装置
2への音声出力要求コマンドとの出力タイミングを異な
らせることにより、メツセージの表示の後に該当する音
声を出力したり、あるいはメツセージの表示と同時に該
当する音mを出力したりでき、表示装置17に表示され
るメツセージと、音声出力装置から出力される音声とを
、任意に同期させることができる。
As described above, by differentiating the output timing of the signal output from the CPLI 21 to display the message on the display device 17 and the audio output request command to the audio output device 2, the corresponding audio is output after the message is displayed. The message displayed on the display device 17 and the audio output from the audio output device can be arbitrarily synchronized.

なお、上記各実施例では、同期の単位は一文章としたが
、これに限定されることなく、同期の単位を単語単位、
あるいは複数の文章単位とすることは勿論可能である。
In addition, in each of the above embodiments, the unit of synchronization is one sentence, but the unit of synchronization is not limited to this, but the unit of synchronization may be word unit,
Alternatively, it is of course possible to use multiple sentence units.

また同期の単位を一画面単位として従来の同期方式と同
(兼の制御方式にづることも可能である。
It is also possible to use the same control method as the conventional synchronization method by setting the unit of synchronization to one screen.

また、上記各実施例では、表示装置17に表示される表
示内容を文字列としたが、本発明はこれに限定されるこ
となく、図形を表示し、その図形の説明を音声出力で行
うようにしても良い。
Further, in each of the above embodiments, the display content displayed on the display device 17 is a character string, but the present invention is not limited to this, and the present invention may display a figure and provide an explanation of the figure by audio output. You can also do it.

例えば、第1図に示したマウス13に対応する図形のみ
を表示Vc置17に表示し、音声出力装置2からは、そ
のマウス13の操作の仕方(例えば、右のボタンを押下
するとどうなるかなど)を説明するようにしても良い。
For example, only the figure corresponding to the mouse 13 shown in FIG. ) may be explained.

上記各実施例によれば、従来の如く、一画面分の文字を
表示せず、所定の文字列、例えば−単語、−文章、複数
の文章等の文字列毎に表示し、その文字列に対応する音
声を任意に同期させることがてき、表示された文字列と
その文字列に対応する音声とを容易に認識することがで
き、CAI(計t’511支援による教育)による学習
効果を向上させることができる。
According to each of the above embodiments, instead of displaying one screen worth of characters as in the past, each predetermined character string, such as a -word, -sentence, or multiple sentences, is displayed. Corresponding voices can be synchronized arbitrarily, and the displayed character string and the voice corresponding to that character string can be easily recognized, improving the learning effect of CAI (education supported by total t'511). can be done.

(発明の効果] 以上説明したように木光明によれば、予め設定された表
示単位の画像毎に音声出力手段に対して予め設定された
コマンドを送出して所定の音声を出力させ、当該音声出
力手段から送出された音声出力の終了を示ず信号を受信
した複数に表示すべき画像を表示するようにしたため、
表示された内容と音声出力の内容とを容易に認識するこ
とができることとなり、表示されたテギスト内容と、該
当する音声とにより学習の効果を向上させることが可能
となる。
(Effects of the Invention) As explained above, according to Kokumei, a preset command is sent to the audio output means for each image of a preset display unit to output a predetermined sound, and the said audio Since the image to be displayed is displayed on the plurality of people who received the signal without indicating the end of the audio output sent from the output means,
It becomes possible to easily recognize the displayed content and the content of the audio output, and it becomes possible to improve the learning effect by using the displayed text content and the corresponding audio.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明に係る計算機システムの一実施例を示す
概略楢成図、第2図は文書編集装置を示すブロック図、
第3図は計算機システムの同期方式の一例の動作を示す
フローチャート、第4図は第3図で示した同期方式の動
作の具体例を説明するための説明図、第5図は本発明に
係る計算機システムの同期方式の他の動作を示すフロー
チャート、第6図は第5図で示した同期方式の動作の具
体例を説明するための説明図である。 1・・・文書編集装置、2・・・音声出力装置、2A・
・・ヘッドフォン、3・・・R8232Cインタフエー
ス、11・・・キーボード/マウス制御部、12・・・
キーボード、13・・・マウス、14・・・ディスク制
御部、15・・・ディスク、16・・・表示制御部、1
7・・・表示火打ち、18・・・実メモリ19・・・通
信制御部、20・・・通信ボート、21・・・中央処理
装置。 第1図 CG) 第2図 第5°図 (b) (a) 第3区 第4図 第6図 (b)
FIG. 1 is a schematic diagram showing an embodiment of a computer system according to the present invention, FIG. 2 is a block diagram showing a document editing device,
FIG. 3 is a flowchart showing the operation of an example of the synchronization method of a computer system, FIG. 4 is an explanatory diagram for explaining a specific example of the operation of the synchronization method shown in FIG. 3, and FIG. 5 is a diagram according to the present invention. FIG. 6 is an explanatory diagram for explaining a specific example of the operation of the synchronization method shown in FIG. 5, which is a flowchart showing another operation of the synchronization method of the computer system. 1... Document editing device, 2... Audio output device, 2A.
... Headphones, 3... R8232C interface, 11... Keyboard/mouse control unit, 12...
Keyboard, 13...Mouse, 14...Disk control unit, 15...Disk, 16...Display control unit, 1
7...Display flint, 18...Real memory 19...Communication control section, 20...Communication boat, 21...Central processing unit. Figure 1 CG) Figure 2 Figure 5 (b) (a) Section 3 Figure 4 Figure 6 (b)

Claims (1)

【特許請求の範囲】 表示画面に画像を表示する表示手段と、該表示内容に対
応する音声を出力する音声出力手段とを有する計算機シ
ステムにおいて、 前記表示手段に表示されるべき1画面分の画像を予め設
定された表示単位の画像毎に表示させるとともに、前記
表示単位の画像毎に前記音声出力手段に対して予め設定
されたコマンドを送出して所定の音声を出力させ、当該
音声出力手段から送出された音声出力の終了を示す信号
を受信した後次に表示すべき画像を表示させる制御手段 を具えたことを特徴とする計算機システム。
[Scope of Claims] In a computer system having a display means for displaying an image on a display screen and an audio output means for outputting a sound corresponding to the displayed content, an image for one screen to be displayed on the display means is provided. is displayed for each image in a preset display unit, and for each image in the display unit, a preset command is sent to the audio output means to output a predetermined sound, and the audio output means outputs a predetermined sound. A computer system comprising a control means for displaying an image to be displayed next after receiving a signal indicating the end of the transmitted audio output.
JP1062621A 1989-03-15 1989-03-15 Computer system Pending JPH02242325A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1062621A JPH02242325A (en) 1989-03-15 1989-03-15 Computer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1062621A JPH02242325A (en) 1989-03-15 1989-03-15 Computer system

Publications (1)

Publication Number Publication Date
JPH02242325A true JPH02242325A (en) 1990-09-26

Family

ID=13205571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1062621A Pending JPH02242325A (en) 1989-03-15 1989-03-15 Computer system

Country Status (1)

Country Link
JP (1) JPH02242325A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03211598A (en) * 1990-01-17 1991-09-17 Sumitomo Electric Ind Ltd Voice synthesizer

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03211598A (en) * 1990-01-17 1991-09-17 Sumitomo Electric Ind Ltd Voice synthesizer

Similar Documents

Publication Publication Date Title
US7047191B2 (en) Method and system for providing automated captioning for AV signals
WO2018227761A1 (en) Correction device for recorded and broadcasted data for teaching
AU695912B2 (en) A computer based training system
GB2314648A (en) Computer-aided CPR
JP2006301223A (en) System and program for speech recognition
WO2019019406A1 (en) Teaching recording data updating device
JP2003307997A (en) Language education system, voice data processor, voice data processing method, voice data processing program, and recording medium
GB2365614A (en) An apparatus and method of generating an audio recording having linked data
JPH02242325A (en) Computer system
JP2000206987A (en) Voice recognition device
EP0662231B1 (en) Teaching aid
JP2008032788A (en) Program for creating data for language teaching material
JP2960029B2 (en) Presentation support device
KR100479414B1 (en) An orally narrated fairy tale device using internet
JP2005352047A (en) Learning device
US10789982B2 (en) Method, device and system for recording information, storage medium and processing unit
JP2002244542A (en) Education system, terminal device for learner, terminal device for teacher, method for remote education by data communication, and medium with education system program stored therein
JP2000105530A (en) Foreign language learning system
JPH0934344A (en) Learning device system
JPH0469699A (en) Automatic broadcasting system
JPS6250787A (en) Computer-aided learning system
JP3350583B2 (en) Synchronized output of audio / image / text information
JPS61103183A (en) Audiovisual educational apparatus
CN114842690A (en) Pronunciation interaction method and system for language course, electronic equipment and storage medium
KR100380779B1 (en) Management apparatus and method of script caption data