JP3284561B2 - Learning support system - Google Patents
Learning support systemInfo
- Publication number
- JP3284561B2 JP3284561B2 JP13088991A JP13088991A JP3284561B2 JP 3284561 B2 JP3284561 B2 JP 3284561B2 JP 13088991 A JP13088991 A JP 13088991A JP 13088991 A JP13088991 A JP 13088991A JP 3284561 B2 JP3284561 B2 JP 3284561B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- time
- support system
- display
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 claims description 43
- 230000008569 process Effects 0.000 claims description 29
- 230000010365 information processing Effects 0.000 claims description 2
- 230000002250 progressing effect Effects 0.000 claims 1
- 230000015654 memory Effects 0.000 description 36
- 238000010586 diagram Methods 0.000 description 31
- 230000006870 function Effects 0.000 description 7
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 238000012217 deletion Methods 0.000 description 5
- 230000037430 deletion Effects 0.000 description 5
- 230000009467 reduction Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000001186 cumulative effect Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 230000003111 delayed effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
【0001】[0001]
【産業上の利用分野】本願発明は学習支援システムに関
し、特に音声,テキスト,画像(コンピュータグラフィ
ックスを含む)等のマルチメディア(以下、単に「マルチ
メディア」という)を利用する学習に対する、計算機を用
いた学習支援システムに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a learning support system , in particular, to use multimedia (hereinafter, simply referred to as "multimedia") such as audio, text, and images (including computer graphics). The present invention relates to a learning support system using a computer for learning .
【0002】[0002]
【従来の技術】マルチメディアを利用する学習支援装置
としては、従来から、マルチメディアを利用して学習情
報を人間に伝えるために、出力装置としてのディスプレ
イとスピーカ,入力装置としてのキーボードとマウス,
データを格納する記憶装置を有する学習支援のための計
算機システムが知られている。例えば、電子情報通信学
会技術研究報告(教育工学:ET90-64)に「マルチメディ
ア知的CAI(Computer Aided Instruction)の試み」
と題して記載されている如く、従来のマルチメディアを
利用する学習支援装置では、学習者モデルや教授戦略の
立場から、個別の学習者に応じた学習シナリオ展開が試
みられている。しかし、ここでは、学習者が計算機と対
話的に学習を進める際、適切な休憩時間をとることは、
ユーザである学習者が管理しており、ユーザに学習時間
を指導することは、上述のCAI装置を用いて教育を行
う先生の作業であった。2. Description of the Related Art Conventionally, as a learning support device using multimedia, a display and a speaker as an output device, a keyboard and a mouse as an input device, and a keyboard and a mouse as input devices have been used in order to transmit learning information to humans using multimedia.
2. Description of the Related Art A computer system for learning support having a storage device for storing data is known. For example, in the IEICE Technical Report (Educational Technology: ET90-64), "A Trial of Multimedia Intelligent CAI (Computer Aided Instruction)"
In a conventional learning support device using multimedia, from the viewpoint of a learner model and a teaching strategy, development of a learning scenario according to an individual learner is attempted. However, here, when students learn interactively with the computer, it is important to take appropriate breaks,
The learner who is the user manages the work, and instructing the user on the learning time is a task of the teacher who teaches using the above-described CAI apparatus.
【0003】[0003]
【発明が解決しようとする課題】また、良く知られてい
る如く、ワークステーション等においては、ディスプレ
イ上に、計算機が持つファイルの内容を「アイコン」と称
するグラフィカルなイメージでシンボル化して表現し、
ユーザが上記アイコンをマウス等で指定することによ
り、当該ファイルの内容を表示する方式が採用されてい
る。従来技術では、ワークステーション等のディスプレ
イ上に、計算機が持つファイルを多数表示する場合、シ
ンボル化されたアイコンの内容の区別が付きにくく、ま
た、シンボルの意味が分からないといった問題点が生じ
ていた。一方、同じく、ワークステーション等におけ
る、マルチウィンドウシステムにおいては、ウィンドウ
の大ささを変えることで当該文書の一部のみを表示し、
画面における表示面積を小さくすることが行われてき
た。また、文書のレイアウト機能は、当該文書をシステ
ムの定めた所定の大きさにすることができたので、マル
チウィンドウシステムにより文書を表示したウィンドウ
を重ねて表示できた。しかしながら、上述の従来技術で
は、ウィンドウを小さくして表示面積を小さくすると文
書全体を一度に見ることができず、マルチウィンドウシ
ステムにより重ねて表示すると、同時に多くの文書を表
示できないため、複数の文書を見比ベたりする場合、ウ
ィンドウの重ね方を変更して見るしかなかった。本願発
明は上記事情に鑑みてなされたもので、その目的とする
ところは、従来の技術における上述の如き問題を解消す
ることにある。すなわち、 (1)学習者が学習をさぼったり、過度に学習を進めす
ぎていることを注意する方法を実現すること。 (2)机の上で、教科書と参考書等の、複数の文書を見
比ベることができるように、各文書の頁全体が一度に見
え、かつ、複数の文書すベてが見渡せるディスプレイ表
示方法を実現すること。が可能な学習支援システムを提
供することにある。Further, as is well known, in a workstation or the like, the contents of a file held by a computer are symbolized and represented by a graphical image called an "icon" on a display.
A method is adopted in which the content of the file is displayed when the user specifies the icon with a mouse or the like. In the prior art, when displaying a large number of files possessed by a computer on a display such as a workstation, there has been a problem that it is difficult to distinguish the contents of the symbolized icons and that the meaning of the symbols cannot be understood. . On the other hand, similarly, in a multi-window system such as a workstation, only a part of the document is displayed by changing the size of the window,
The display area on a screen has been reduced. In addition, the document layout function allowed the document to have a predetermined size determined by the system, so that the window displaying the document by the multi-window system could be displayed in an overlapping manner. However, in the above-described conventional technology, when the window is reduced to reduce the display area, the entire document cannot be viewed at once, and when displayed in a multi-window system, many documents cannot be displayed at the same time. The only way to compare them was to change the way the windows overlap . The present invention has been made in view of the above circumstances, and an object of the present invention is to solve the above-described problems in the related art. That is, (1) To realize a method of paying attention to the fact that the learner skips learning or excessively proceeds with learning. (2) A display on which the entire page of each document can be seen at once and all the documents can be seen so that a plurality of documents such as textbooks and reference books can be compared on a desk. Realize the display method . It is to provide a learning support system that can be used.
【0004】[0004]
【課題を解決するための手段】本願発明の上記目的は、
学習の進み具合を管理することにより学習支援のための
情報処理を実行する学習支援システムにおいて、学習の
内容を構成する複数の学習過程それぞれについて、各学
習過程を学習者が実行すべき時間の許容範囲を記憶する
記憶手段と、前記学習者が、前記複数の学習過程に含ま
れる学習過程を実行した時間を計測する計測手段と、計
測された前記時間と前紀許容範囲を比較する比較手段
と、比較の結果を出力する出力手段とを有するととも
に、前記記憶手段は、前記許容範囲として、前記各学習
過程を前記学習者が実行すべき時間の上限値および下限
値を記憶し、前記比較手段は、計測された前記時間と前
記上限値および前記下限値を比較し、前記出力手段は、
計測された前記時間が前記上限値より大きな場合は、前
記比較手段での比較結果として、学習が遅れていること
を示す出力を、計測された前記時間が前記下限値より小
さな場合は、前記比較手段での比較結果として、学習が
進みすぎていることを示す出力を、計測された前記時間
が前記上限値より小さく前記下限値より大きな場合は、
前記比較手段での比較結果として、学習が所定の進行状
態であることを示す出力を行うことを特徴とする学習支
援システムによって達成される。The above objects of the present invention are as follows.
In a learning support system that executes information processing for learning support by managing the progress of learning, for each of a plurality of learning processes constituting the content of the learning, an allowance of a time for each learner to execute each learning process. Storage means for storing a range, measuring means for measuring the time during which the learner has performed the learning process included in the plurality of learning processes, and comparing means for comparing the measured time with the permissible period. , both as having an output means for outputting a result of the comparison
The storage means may store the learning data as the allowable range.
Upper and lower limits of the time during which the learner should execute the process
Storing a value, wherein the comparing means compares the measured time with the previous time.
Comparing the upper limit value and the lower limit value,
If the measured time is greater than the upper limit,
As a result of comparison by the comparison means, learning is delayed
The output indicating that the measured time is smaller than the lower limit value
In such a case, learning is performed as a comparison result by the comparing means.
The output indicating that the vehicle is traveling too far
Is smaller than the upper limit and larger than the lower limit,
As a result of the comparison by the comparing means, learning is performed in a predetermined progress state.
This is achieved by a learning support system characterized by performing output indicating that the user is in a state .
【0005】[0005]
【作用】本願発明に係る学習支援システムにおいては、
計算機に学習時間,休憩時間の管理機能を持たせたこと
により、学習者が、不要に長く休憩を取ったりした場
合、計算機から注意するための出力を出すことができ
る。また、本願発明に係る学習支援システムにおいて
は、デイスプレイ上に、計算機が持つテキスト,画像の
ファイルを多く表示する場合、各ファイルを、その内容
の判別できる程度の大きさに縮小表示する手段を設けた
ことにより、これを内容が見えるアイコンとして用いる
ようにして、複数のファイルを、該ファイルの内容の判
別に必要なだけの大きさで表示できる。 In the learning support system according to the present invention,
By providing the computer with the management function of the learning time and the break time, when the learner takes a break unnecessarily long, the computer can output an output for caution. Further, in the learning support system according to the present invention, when a large number of text and image files of the computer are displayed on the display, there is provided means for reducing and displaying each file to such a size that its contents can be discriminated. As a result, a plurality of files can be displayed in a size necessary for discriminating the contents of the file by using the icon as a visible icon .
【0006】[0006]
【実施例】以下、本発明の実施例を図面に基づいて詳細
に説明する。まず、本発明の第一の実施例を、図1〜図
3を用いて説明する。図2は、本発明の一実施例に係
る、マルチメディアを利用する学習支援装置の構成図で
ある。図からも明らかな如く、本実施例に示す学習支援
装置は、計算機1201,イメージスキャナ1202,光ディス
ク装置1203,ディスク装置1204,スピーカシステム120
5,ディスプレイ1206,キーボード1207,マウス1208か
ら構成されている。また、計算機1201内には時計1209を
具備し、計算機1201内のプログラムからの要請があれ
ば、現在時刻をプログラムに読み込むことができる。図
3は、学習進行上の学習時間および休憩時間の管理を計
算機が行うために用いる、ユーザ(学習者)対応の学習時
間管理テーブルの構成例を示す図である。本学習時間管
理テーブルには、ユーザID(1301)の登録が可能であ
り、複数のユーザに対し、上記ユーザID(1301)により
区別をすることで、各人の学習時間管理を行うことが可
能である。ここでは、全学習内容に対して、時系列的に
n個の学習過程を設けており、n分割された学習内容の
学習過程番号i(1302)の学習過程をPiとする。学習過
程Piにおけるラップタイムは、学習過程Piの終了時
刻tと学習過程Piの開始時刻t0との差であり、上記
ラップタイムについて、その許容範囲の下限をtmin
(i)(1303)、上限をtmax(i)(1304)として 設定してお
く。更に、学習開始時刻からの累積時間の標準値をT
(i)(1305)とし、実際に学習に要した累積時間の推移を
S(i)(1306)として、逐次記録する。tmin(i)(1303),
tmax(i)(1304),T(i)(1305)およびS(i)(1306)は、
学習過程番号i(1301)をパラメータとする変数であり、
tmax(i)(1304),tmin(i)(1303)およびT(i)(1305)
には、学習内容に適応した初期値を設定しておく。S
(i)(1306)には、初期値として「0」を設定する。また、
前回の学習過程がどこまで進んだかを記録するために、
次回に学習すべき学習過程番号i(1307)を記録でき、こ
こには、学習を始めて行う前には、初期値として「1」が
設定されている。更に、学習を側めてからの累積時間S
UM(1308)を記録でき、学習を始めて行う前には、初期
値として「0」が設定されている。なお、学習中断後、学
習を再開した場合には、この値を読み込んで累積時間の
加算を行い、再度中断したとき記録するものである。Embodiments of the present invention will be described below in detail with reference to the drawings. First, a first embodiment of the present invention will be described with reference to FIGS. FIG. 2 is a configuration diagram of a learning support device using multimedia according to an embodiment of the present invention. As is apparent from the figure, the learning support apparatus shown in this embodiment includes a computer 1201, an image scanner 1202, an optical disk device 1203, a disk device 1204, and a speaker system 120.
5, a display 1206, a keyboard 1207, and a mouse 1208. The computer 1201 is provided with a clock 1209, and the current time can be read into the program when requested by a program in the computer 1201. FIG. 3 is a diagram illustrating a configuration example of a learning time management table corresponding to a user (learner) used by a computer to manage the learning time and the break time in the learning progress. In this learning time management table, the user ID (1301) can be registered, and learning time management for each user can be performed by distinguishing a plurality of users by the user ID (1301). It is. Here, n learning processes are provided in time series for all the learning contents, and the learning process of the learning process number i (1302) of the n-divided learning contents is Pi. The lap time in the learning process Pi is a difference between the end time t of the learning process Pi and the start time t 0 of the learning process Pi, and the lower limit of the allowable range of the lap time is tmin.
(i) (1303), and the upper limit is set as tmax (i) (1304). Further, the standard value of the accumulated time from the learning start time is T
(i) (1305), and the transition of the accumulated time actually required for learning is sequentially recorded as S (i) (1306). tmin (i) (1303),
tmax (i) (1304), T (i) (1305) and S (i) (1306) are
It is a variable with the learning process number i (1301) as a parameter,
tmax (i) (1304), tmin (i) (1303) and T (i) (1305)
Is set to an initial value adapted to the learning content. S
(i) In (1306), “0” is set as an initial value. Also,
To record how far the previous learning process has progressed,
The learning process number i (1307) to be learned next time can be recorded. Here, “1” is set as an initial value before learning is performed for the first time. Furthermore, the accumulated time S after learning
UM (1308) can be recorded, and “0” is set as an initial value before learning is performed for the first time. When the learning is restarted after the learning is interrupted, this value is read, the cumulative time is added, and recorded when the learning is interrupted again.
【0007】図1は、学習進行上の学習時間および休憩
時間の管理を計算機が行うアルゴリズムのPAD図であ
る。ユーザIDを入力し、学習を開始するか、あるい
は、前回学習を中断した後 学習を再開すると、現在時
刻t0を入力し、累積時間SUMを読み込む(ステップ11
01)。次に、学習を再開すべき学習過程番号iを読み込
み(ステップ1102)、これにより、学習Piが実行できる
(1104)。第i番目の学習過程Pi終了時に、現在時刻t
を読み込み(ステップ1105)、累積時間SUM(1308)を更
新し(ステップ1106と1107)、以下に説明する如き形で、
学習進行状態を出力する(ステップ1108)。次いで、ステ
ップ1109に示す条件分岐により、ラップタイム(t−
t0)がtmax(i)より大きければ、学習が遅れている状
態であり(ステップ1110)、また、ラップタイム(t−
t0)がtmin(i)より小さければ、学習が進みすぎてい
る状態であり(ステップ1111)、ラップタイム(t−t0)
が tmin(i)より大きく、tmax(i)より小さければ、
所定の学習進行状態であり(ステップ1112)、それぞれに
対応した処理を行う。その後、iの値をインクリメント
し(ステップ1113)、現在時刻tを次の学習過程開始時刻
として t0に代入する(ステップ1114)。また、学習を中
断するならば(ステップ1115)、インクリメントされたi
を学習時間管理テーブルに格納した後(ステップ1116)、
iに(n+1)を代入することで中断可能である(ステッ
プ1117)。その際、累積時間も記録する(ステップ111
8)。学習過程番号iが、終了番号であるn+1になるま
で(ステップ1103)、次の学習過程を実行する(ステップ1
104)。上述の如き手段により、個人の学習進度に合せて
ユーザにアドバイスすることが可能となる。また、累積
時間SUMを記録することで、学習全体から見た遅れ時
間,残り時間を表示することができる。FIG. 1 is a PAD diagram of an algorithm in which a computer manages the learning time and the break time in the progress of learning. When the user ID is input and learning is started, or learning is resumed after the previous learning was interrupted, the current time t 0 is input and the accumulated time SUM is read (step 11).
01). Next, a learning process number i for which learning is to be resumed is read (step 1102), whereby learning Pi can be executed.
(1104). At the end of the i-th learning process Pi, the current time t
Is read (step 1105), the accumulated time SUM (1308) is updated (steps 1106 and 1107), and as described below,
The learning progress state is output (step 1108). Next, the lap time (t−
If (t 0 ) is larger than tmax (i), the learning is delayed (step 1110), and the lap time (t−
If (t 0 ) is smaller than t min (i), it means that the learning has advanced too much (step 1111), and the lap time (t−t 0 )
Is greater than tmin (i) and less than tmax (i),
It is in a predetermined learning progress state (step 1112), and processing corresponding to each is performed. Thereafter, the value of i is incremented (step 1113), and the current time t is substituted into t 0 as the next learning process start time (step 1114). If the learning is interrupted (step 1115), the incremented i
Is stored in the learning time management table (step 1116),
It can be interrupted by substituting (n + 1) for i (step 1117). At this time, the accumulated time is also recorded (step 111).
8). Until the learning process number i becomes the end number n + 1 (step 1103), the next learning process is executed (step 1).
104). By the means as described above, it is possible to give an advice to the user according to the learning progress of the individual. Further, by recording the accumulated time SUM, the delay time and the remaining time viewed from the entire learning can be displayed.
【0008】図4は、上述の学習進行状態出力アルゴリ
ズム(ステップ1108)により出力されたディスプレイの画
面構成のイメージ図の一例である。ここでは、横軸に前
述の学習過程番号i(1302)を取り(1401)、縦軸に学習累
積時間SUM(1308)を取った(1402)2次元グラフとして
いる。予め学習内容に応じて設定された標準累積時間(1
403)と、実際に要した累積時間の推移(1306)を比較して
表示できる。図5は、学習進行状態出力アルゴリズム
(図1のステップ1108)を示すPAD図である。横軸に学
習過程番号(1302)を設定,表示し(ステップ1501)、縦軸
に学習累積時間(1306)を設定,表示する(ステップ150
2)。そして、予め学習内容に応じて設定された標準累積
時間をグラフとして表示し(ステップ1503)、実際に要し
た累積時間の推移(1306)を現在の学習過程iまで表示し
て(ステップ1504)、両者の比較が可能な2次元グラフを
構成する。FIG. 4 is an example of an image diagram of the screen configuration of the display output by the above-described learning progress state output algorithm (step 1108). Here, a two-dimensional graph is shown in which the horizontal axis represents the learning process number i (1302) (1401) and the vertical axis represents the accumulated learning time SUM (1308) (1402). The standard cumulative time (1
403) and the transition of the actually required accumulated time (1306) can be displayed by comparison. Fig. 5 shows the learning progress status output algorithm
FIG. 2 is a PAD diagram showing (step 1108 in FIG. 1). The horizontal axis sets and displays the learning process number (1302) (step 1501), and the vertical axis sets and displays the accumulated learning time (1306) (step 1501).
2). Then, the standard cumulative time set in advance according to the learning content is displayed as a graph (step 1503), and the transition of the actually required cumulative time (1306) is displayed up to the current learning process i (step 1504), A two-dimensional graph that can compare the two is constructed.
【0009】本発明の第二の実施例を、図6〜図10を
用いて説明する。第二の実施例は、第一の実施例に示し
た装置に、以下に説明する文書縮小表示機能を追加した
ものである。図6は、文書縮小表示方法の全体PAD図
である。例えば、文書右下に設けたマウス受け付け領域
内でマウスのボタンがピックされた(ステップ2101)こと
で、図6の全体フローに基づくアルゴリズムで処理を行
う。すなわち、マウスのボタンがピックされた時点での
文書右下の初期座標(x0,y0)が入力され(ステップ210
2)、次に、ユーザがマウスのボタンを押下したままでマ
ウスを移動させて、縮小したい寸法の文書右下位置で、
マウスボタンを離す(ステップ2103)。これにより、ユー
ザが希望する文書右下座標として、マウスの移動後の座
標(x1,y1)が入力され(ステップ2104)、x,y方向に
縮小されるべき画素数(Δx,Δy)は、それぞれΔx=
x0−x1,Δy=y0−y1で計算される(ステップ210
5)。その後、(Δx,Δy)から削除する画素を決定する
削除選択アルゴリズム(ステップ2106)、および、選択さ
れた画素を削除して縮小画像を作成する縮小画像生成ア
ルゴリズム(ステップ2107)により、ユーザが希望する寸
法に縮小した画像を表示する(ステップ2108)。上述の、
削除選択アルゴリズム(ステップ2106)および縮小画像生
成アルゴリズム(ステップ2107)の詳細を、以下に説明す
る。図7は、x方向への圧縮時における削除選択アルゴ
リズム(ステップ2106)のPAD図である。縮小したい元
の画像の構成を、画素データとして、2次元配列A
[x,y]、削除画素判定用のフラグを格納する2次元
配列FLAG_A[x,y]とする(ステップ2201)。始
めに、削除する画素数をカウントするカウンタを「0」に
セットし(ステップ2202)、フラグをすべて「1」にする。
フラグが「1」の画素は残り、「0」の画素は削除されるも
のとして、意味付ける。A[x,y]のx方向の各行に
ついて、0〜1の乱数を発生する関数ramd()により、
順次、Δx/xの確率で除去されるように選別を行い
(ステップ2204)、選択された画素に対応するフラグを
「0」にする(ステップ2206)。また、一度フラグが「0」に
なったものについては、カウントしない(ステップ220
5)。この作業を、x個の画素からランダムにΔx個削除
すべき画素が選択されるまで、すなわち、カウンタがΔ
xとなるまで繰り返す(ステップ2203)。尚、y方向への
圧縮時における削除画素選択アルゴリズム(ステップ210
6)は、x方向への圧縮と同様の作業により達成される。
このように、削除される画素がフラグにマークされた後
は、選択された画素を削除して縮小画像を作成する縮小
画像生成アルゴリズム(ステップ2107)により、縮小画像
を生成する。A second embodiment of the present invention will be described with reference to FIGS. In the second embodiment, a document reduction display function described below is added to the apparatus shown in the first embodiment. FIG. 6 is an overall PAD diagram of the document reduction display method. For example, when the mouse button is picked in the mouse reception area provided at the lower right of the document (step 2101), the processing is performed by the algorithm based on the entire flow of FIG. That is, initial coordinates (x 0 , y 0 ) at the lower right of the document when the mouse button is picked are input (step 210).
2) Then, the user moves the mouse while holding down the mouse button, and at the lower right position of the document of the size to be reduced,
Release the mouse button (step 2103). As a result, the coordinates (x 1 , y 1 ) after moving the mouse are input as the lower right coordinates of the document desired by the user (step 2104), and the number of pixels (Δx, Δy) to be reduced in the x, y directions Are Δx =
x 0 −x 1 , Δy = y 0 −y 1 (Step 210)
Five). After that, the user selects a deletion selection algorithm (Step 2106) that determines a pixel to be deleted from (Δx, Δy) and a reduced image generation algorithm (Step 2107) that deletes the selected pixel to create a reduced image. The image reduced to the size to be displayed is displayed (step 2108). As mentioned above,
Details of the deletion selection algorithm (step 2106) and the reduced image generation algorithm (step 2107) will be described below. FIG. 7 is a PAD diagram of the deletion selection algorithm (step 2106) at the time of compression in the x direction. The configuration of the original image to be reduced is represented by a two-dimensional array A as pixel data.
[X, y] and a two-dimensional array FLAG_A [x, y] that stores a flag for determining a pixel to be deleted (step 2201). First, a counter for counting the number of pixels to be deleted is set to “0” (step 2202), and all flags are set to “1”.
The pixels with the flag “1” remain, and the pixels with the flag “0” are deemed to be deleted. For each row in the x direction of A [x, y], a function ramd () that generates a random number from 0 to 1 gives
Sorting is performed so that it is sequentially removed with a probability of Δx / x
(Step 2204) The flag corresponding to the selected pixel is set to “0” (Step 2206). If the flag is once set to "0", it is not counted (step 220).
Five). This operation is repeated until a pixel to be deleted Δx is selected at random from the x pixels, that is, the counter is ΔΔ
It repeats until it becomes x (step 2203). It should be noted that a deletion pixel selection algorithm at the time of compression in the y direction (step 210)
6) is achieved by the same operation as the compression in the x direction.
As described above, after the pixel to be deleted is marked with the flag, a reduced image is generated by a reduced image generation algorithm (step 2107) for deleting the selected pixel and creating a reduced image.
【0010】図8は、x方向の縮小画像生成アルゴリズ
ム(図6のステップ2107)のPAD図である。FLAG_
A[j,i]の値が「1」のもののみを判別(ステップ230
1)、A[j,i]の値をWORK_Aに移す(ステップ2
302)ことで、WORK_Aには(x−Δx)*y個の2次
元画素データの縮小画像が生成される。尚、y方向への
圧縮時における縮小画像生成アルゴリズムは、x方向へ
の圧縮と同様の作業により達成される。図9は、x,y
両方向共、縮小した場合の画素の変遷についての画面生
成イメージである。2401は縮小前の元の画像の概念的表
示であり、1画素に1つのアルファベットを対応させて
説明する。2402において、x方向に削除すべき画素の座
標として、乱数を用いて、ランダムに、かつ、x方向の
各行から同じ個数の画素を選択し、該座標のフラグに×
印を付けた。削除画素フラグ(2402)に×印の付いた座標
について、2403において、元の画像2401から対応画素を
削減し、x方向に圧縮した画像を生成することができ
る。次に、x方向に圧縮後の画像2404に対して、2405に
おいて同様に、y方向に削除すべき画素の座標として、
乱数を用いて、ランダムに、かつ、y方向の各行から同
じ個数の画素を選択し、該座標のフラグに×印を付け
た。削除画素フラグ2405に×印の付いた座標について、
2406において、x方向に圧縮した画像2404から対応画素
を削減し、y方向にも圧縮した画像を生成することがで
きる。以上のようなステップを経て、x,y両方向共に
圧縮した画像2406を生成することができる。図10は、
画面縮小表示時の一例であり、ワークメモリ内の文書の
元のデータをユーザから指示された寸法に縮小しフレー
ムメモリに書き込み、1つあるいは複数の文書を任意の
寸法で1画面に表示する。尚、カラー画像の場合、RG
B3色分について同じ作業を繰り返すが、ここでは表現
の簡単化のため、単色用のアルゴリズムで表現されてい
る。本アルゴリズムを、カラー画像対応に拡張するのは
容易である。FIG. 8 is a PAD diagram of the reduced image generation algorithm in the x direction (step 2107 in FIG. 6). FLAG_
Only those having a value of A [j, i] of "1" are determined (step 230).
1) The value of A [j, i] is transferred to WORK_A (step 2)
As a result, (x−Δx) * y reduced images of two-dimensional pixel data are generated in WORK_A. Note that the reduced image generation algorithm at the time of compression in the y direction is achieved by the same operation as compression in the x direction. FIG. 9 shows x, y
In both directions, a screen generation image is shown regarding the transition of the pixel when reduced. Reference numeral 2401 denotes a conceptual display of the original image before reduction, which will be described with one alphabet corresponding to one pixel. At 2402, the same number of pixels are randomly and randomly selected from each row in the x-direction using random numbers as the coordinates of the pixels to be deleted in the x-direction.
Marked. Regarding the coordinates of the deleted pixel flag (2402) marked with a cross, in 2403, the corresponding pixels can be reduced from the original image 2401 and an image compressed in the x direction can be generated. Next, similarly to the image 2404 compressed in the x direction, the coordinates of pixels to be deleted in the y direction in the
Using a random number, the same number of pixels were selected at random from each row in the y direction, and the coordinates flag was marked with a cross. Regarding the coordinates marked with a cross in the deletion pixel flag 2405,
At 2406, corresponding pixels can be reduced from the image 2404 compressed in the x direction to generate an image compressed in the y direction. Through the above steps, an image 2406 compressed in both the x and y directions can be generated. FIG.
This is an example of screen reduction display, in which original data of a document in a work memory is reduced to a size specified by a user, written in a frame memory, and one or a plurality of documents are displayed on a single screen in an arbitrary size. In the case of a color image, RG
The same operation is repeated for the B3 color, but here, for simplicity of expression, it is expressed by an algorithm for a single color. It is easy to extend this algorithm for color images.
【0011】第三の実施例を、図11〜図15を用いて
説明する。第三の実施例は、第一の実施例に示した装置
に、以下に説明するような動画中のマウスポインティン
グ機能を追加したものである。図11は、表示画面を制
御するディスプレイ制御のブロック図であり、CRT31
05,CRTコントローラ1(3103),CRTコントローラ
2(3106),TV同期回路3101,ビデオフレーム3102,ミ
キサメモリ3104,フレームメモリ3107,プロセッサ3108
から構成されている。TV同期回路3101により、動画像
のアナログ信号入力に同期を合わせ、ディジタル化し、
ミキサメモリ3104が指定した画素に対応して、ビデオフ
レーム3102に、順次、書き込む。一方、コンピュータグ
ラフィック,テキスト文字等は、フレームメモリ3107に
書き込まれる。ビデオフレーム3102,フレームメモリ31
07への書き込みは、プロセッサ3108が指示を送り、CR
Tコントローラ1(3108),CRTコントローラ2(3106)
により制御される。ビデオフレーム3102の画像とフレー
ムメモリ3107の画像を、どういう配置でCRT3105に出
力するかは、プロセッサ3108がミキサメモリ3104におい
て定義した動画表示領域情報に基づき、合成される。図
12は、マウス受け付け領域のデータ構造である。動画
において、画面の中の動いている人,物等のオブジェク
トをマウスで直接ポインティングすることで、当該オブ
ジェクトの関連説明を表示するために、本実施例では、
マウス受け付け領域を当該オブジェクトの動きに合せて
動かせる方法を用いた。着目するオブジェクトの動きに
あわせた時間軸上のオブジェクトの変動を、時間3201,
X座標3202,Y座標3203として記録した。また、当該オ
ブジェクトの関連説明を表示するためのアドレスとし
て、リンク先アドレス3204も合せて1つのテーブルと
し、画面中で指定したいオブジェクトの数だけテーブル
を用意する。そして、ユーザがマウスでポインティング
する対象によって、表示する説明文を変えて表示する。
このテーブルを作成・処理する手続きについて、以下、
説明する。A third embodiment will be described with reference to FIGS. In the third embodiment, a mouse pointing function in a moving image as described below is added to the apparatus shown in the first embodiment. FIG. 11 is a block diagram of the display control for controlling the display screen.
05, CRT controller 1 (3103), CRT controller 2 (3106), TV synchronization circuit 3101, video frame 3102, mixer memory 3104, frame memory 3107, processor 3108
It is composed of The TV synchronization circuit 3101 synchronizes with the analog signal input of the moving image and digitizes it.
The data is sequentially written into the video frame 3102 corresponding to the pixel specified by the mixer memory 3104. On the other hand, computer graphics, text characters, and the like are written to the frame memory 3107. Video frame 3102, frame memory 31
To write to 07, processor 3108 sends an instruction and CR
T controller 1 (3108), CRT controller 2 (3106)
Is controlled by The arrangement in which the image of the video frame 3102 and the image of the frame memory 3107 are output to the CRT 3105 is synthesized based on the moving image display area information defined in the mixer memory 3104 by the processor 3108. FIG. 12 shows the data structure of the mouse reception area. In the present embodiment, in order to display a related description of the moving object or the object on the screen by directly pointing the object such as a mouse with a mouse, in this embodiment,
A method in which the mouse receiving area can be moved according to the movement of the object is used. The change of the object on the time axis according to the movement of the object of interest
It was recorded as X coordinate 3202 and Y coordinate 3203. Also, as an address for displaying the related description of the object, one table including the link destination address 3204 is prepared, and as many tables as the number of objects desired to be designated on the screen are prepared. The description to be displayed is changed according to the target pointed by the user with the mouse.
The procedure for creating and processing this table is as follows:
explain.
【0012】図13は、上述のテーブルを作成するアル
ゴリズムを示すPAD図である。まず、動画を流し始め
た開始時刻を読み込む(ステップ3301)。次に、動画を流
すためのコマンド「VTR−play」を実行する(ステップ3
302)。以後、「VTR−stop」が実行され、動画が止まる
まで、マウス入力が入るのを待つ(ステップ3303)。マウ
スが入力されるまでは、時刻を読み込み、動画を流し始
めたときからの時間を数える(ステップ3310)。ここで、
動きを記録したい着目オブジェクトが現われたら、動き
を記録したいオブジェクトに合せ、マウスボタンを押し
ながらマウスを動かす(ステップ3305)ことで、計算機が
マウス座標を読み込み(ステップ3306)、この値を順次、
記録し(ステップ3308)、合せて、現在時刻を読み込み
(ステップ3307)、時間データも記録する(ステップ330
8)。記録作業(ステップ3308)は、マウスからボタンを離
すことで終了する(ステップ3305)。その後、「VTR−s
top」を実行し、動画を止める(ステップ3309)。こうして
入力された時間(3201),座標データ(3202,3203)に、リ
ンク先アドレス3204を合せて1つのテーブルができあが
る。別のオブジェクトの動きを記録することは、再度動
画を流し、同じ手段を用いて実現できる。なお、計算機
を用いて動画を流すあるいは止める等の制御を行う手段
については、例えば、特開平2-148217号公報「CD−R
OMディスク再生装置」に記載されている如く、公知で
あるので、ここでは詳細は省略する。FIG. 13 is a PAD diagram showing an algorithm for creating the above-mentioned table. First, a start time at which a moving image is started to be read is read (step 3301). Next, a command "VTR-play" for playing a moving image is executed (step 3).
302). Thereafter, "VTR-stop" is executed, and the process waits for a mouse input until the moving image stops (step 3303). Until the mouse is input, the time is read and the time from when the moving image is started to be counted is counted (step 3310). here,
When the object of interest whose motion is to be recorded appears, move the mouse while pressing the mouse button (Step 3305) according to the object whose motion is to be recorded, and the computer reads the mouse coordinates (Step 3306).
Record (step 3308) and read the current time
(Step 3307), time data is also recorded (Step 330)
8). The recording operation (step 3308) ends by releasing the mouse button (step 3305). Then, "VTR-s
"top" to stop the movie (step 3309). One table is completed by adding the link destination address 3204 to the input time (3201) and coordinate data (3202, 3203). Recording the movement of another object can be realized by playing the moving image again and using the same means. Means for performing control such as playing or stopping a moving image using a computer is described in, for example, JP-A-2-148217, “CD-R
As described in "OM disc reproducing apparatus", the details are omitted here.
【0013】図14は、上記手段により作成されたテー
ブルを組み込んで用いて、マウスポインティングを受け
付ける全体アルゴリズムを示すPAD図である。まず、
動画を流し始めた開始時刻を読み込む(ステップ3401)。
次に、動画を流すためのコマンド「VTR−play」を実行
する(ステップ3402)。そして、「VTR−stop」が実行さ
れ、動画が止まるまでマウス入力が入るのを待つ(ステ
ップ3403)。マウスが入るまでは現在時刻を読み込み(ス
テップ3407)、時刻が動画を終了する時間になれば(ステ
ップ3408)、「VTR−stop」を実行し、動画を止める(ス
テップ3409)。なお、その前に、ユーザが画面を見てい
て動画中のオブジェクトに対して、何か疑問があれば直
接マウスでポインティングする。マウスのボタンが押さ
れたら(ステップ3404)、「VTR−pause」を実行し、動
画を静止させる(ステップ3405)。座標データ(3202,320
3)と時間データ(3201)を用いて、マウス領域判定アルゴ
リズム(ステップ3406)で、どのテーブルのオブジェクト
をユーザがポインティングしているのかを判定する。判
定後、該当するオブジェクトがあれば、リンク先アドレ
ス3204を参照して、該当画面を表示する。表示終了後あ
るいは判定後、該当するオブジェクトが無ければ、「V
TR−pause」を解除し動画の続きを流す。図15は、上
述の、マウス領域判定アルゴリズムを示すPAD図であ
る。計算機がマウス座標(Xm,Ym)を記録し(ステップ3
501)、合せて、テーブルデータを読み込む(ステップ350
2)。現在時刻Tを読み込み(ステップ3503)、その時刻に
該当する時間T(i)(3505)に対応する、着目オブジェク
トの座標X(i),Y(i)を中心に、±Xd,±Ydの矩
形領域を設定する(ステップ3507)。なお、Xd,Yd
は、着目オブジェクトの大きさに基づく遊び分である。
マウス座標(Xm,Ym)が上述の矩形領域内にあれば(ス
テップ3508)、動画を止めて(ステップ3509)、リンク先
アドレス3204を参照して(ステップ3510)、対応する画面
や音声の出力を行う。リンク先アドレス3204の処理終了
後か、または上述のマウス座標が上記矩形領域内になけ
れば(ステップ3508)、ユーザが説明用の画面等が用意さ
れていないものをポインティングしたと見なし、「VT
R−pause」を解除し(ステップ3511)、動画の続
きを流す。以上の手段により、動画中のマウスポインテ
ィングを受け付けることが可能となる。FIG. 14 is a PAD diagram showing an overall algorithm for receiving mouse pointing by incorporating the table created by the above means. First,
The start time at which the moving image is started to be read is read (step 3401).
Next, a command “VTR-play” for playing a moving image is executed (step 3402). Then, "VTR-stop" is executed, and it waits for a mouse input until the moving image stops (step 3403). The current time is read until the mouse enters (step 3407), and when the time reaches the time to end the moving image (step 3408), "VTR-stop" is executed to stop the moving image (step 3409). Before that, if there is any doubt about the object in the moving image while the user is looking at the screen, the user directly points with the mouse. When the mouse button is pressed (step 3404), “VTR-pause” is executed to freeze the moving image (step 3405). Coordinate data (3202, 320
Using the 3) and the time data (3201), a mouse region determination algorithm (step 3406) determines which table object the user is pointing to. After the determination, if there is a corresponding object, the corresponding screen is displayed with reference to the link destination address 3204. After the display ends or after the determination, if there is no corresponding object, "V
TR-pause ”is released and the continuation of the moving image is played. FIG. 15 is a PAD diagram showing the above-described mouse region determination algorithm. The computer records the mouse coordinates (Xm, Ym) (step 3).
501) and read the table data (step 350
2). The current time T is read (step 3503), and ± Xd and ± Yd of the coordinates X (i) and Y (i) of the object of interest corresponding to the time T (i) (3505) corresponding to that time are read. A rectangular area is set (step 3507). Xd, Yd
Is a play based on the size of the object of interest.
If the mouse coordinates (Xm, Ym) are within the above-described rectangular area (step 3508), the moving image is stopped (step 3509), the link destination address 3204 is referenced (step 3510), and the corresponding screen or sound is output. I do. After completion of the processing of the link destination address 3204, or if the mouse coordinates are not within the rectangular area (step 3508), it is assumed that the user has pointed to a screen for which no explanation screen or the like is prepared, and "VT
R-pause ”is released (step 3511), and the continuation of the moving image is played. By the above means, it is possible to receive mouse pointing in a moving image.
【0014】第四の実施例を、図16〜図19を用いて
説明する。第四の実施例は、第一の実施例に示した装置
において、教材として画面に表示されるマルチメディア
データを、メディアの種類に関係なく、個人的なメモと
して記録できる機能を追加したものであり、以下に説明
する。図16は、第四の実施例における、表示画面を制
御するディスプレイ制御ブロック図であり、CPU410
6,メモ用の記憶装置4107,ビデオフレーム4102,ミキ
サメモリ4103,フレームメモリ4104,ワークメモリ410
5,ユーザインタフェース4108からなる。図11におい
て既に説明した如く、TV同期回路3101が、動画像のア
ナログ信号入力に同期を合わせ、ディジタル化し、ミキ
サメモリ4103が指定した画素に対応して、ビデオフレー
ム4102に順次書き込む。一方、コンピュータグラフィッ
ク,テキスト文字等はフレームメモリ4104に書き込む。
ビデオフレーム4102,フレームメモリ4103への書き込み
は、CPU4106からの指示に基づく。ビデオフレーム41
02の画像とフレームメモリ4104の画像をどういう配置で
CRT3105に出力するかは、CPU4106がミキサメモリ
4103において定義した、以下で記述する動画表示領域情
報に基づき、合成する。図17は、ディスプレイ4204,
ビデオフレーム4201,ミキサメモリ4202およびフレーム
メモリ4203の論理構成図である。ビデオフレーム4201,
フレームメモリ4203はそれぞれn*m*階調分のメモリ
を持ち、RGB3色分のデータを格納できる。ミキサメ
モリ4202は、n*m*1bitのメモリを持つ。ビデオフ
レーム4201の内容と、フレームメモリ4203の内容を、同
時にディスプレイ4204に表示するために、ディスプレイ
4204出力時にビデオフレーム4201とフレームメモリ4203
のどちらの画面情報を出力するかを、ミキサメモリ4202
において設定できる。例えば、動画表示領域を「1」と
し、その他を「0」としておき、ディスプレイ4204出力時
に、各画素ごとに逐一判定を行う。A fourth embodiment will be described with reference to FIGS. In the fourth embodiment, in the device shown in the first embodiment, a function of recording multimedia data displayed on the screen as a teaching material as a personal memo irrespective of the type of media is added. Yes, and will be described below. FIG. 16 is a display control block diagram for controlling a display screen according to the fourth embodiment.
6, memo storage device 4107, video frame 4102, mixer memory 4103, frame memory 4104, work memory 410
5, a user interface 4108. As already described with reference to FIG. 11, the TV synchronization circuit 3101 synchronizes with the analog signal input of the moving image, digitizes it, and sequentially writes it into the video frame 4102 corresponding to the pixel specified by the mixer memory 4103. On the other hand, computer graphics, text characters, and the like are written in the frame memory 4104.
Writing to the video frame 4102 and the frame memory 4103 is based on an instruction from the CPU 4106. Video frame 41
The CPU 4106 determines the arrangement of the image 02 and the image in the frame memory 4104 to be output to the CRT 3105 in the mixer memory.
The composition is performed based on the moving image display area information described below defined in 4103. FIG. 17 shows the display 4204,
FIG. 4 is a logical configuration diagram of a video frame 4201, a mixer memory 4202, and a frame memory 4203. Video frame 4201,
Each of the frame memories 4203 has a memory for n * m * gradations and can store data for three colors of RGB. The mixer memory 4202 has n * m * 1 bit memory. To simultaneously display the contents of the video frame 4201 and the contents of the frame memory 4203 on the display 4204,
Video frame 4201 and frame memory 4203 when outputting 4204
Which screen information to output is determined by the mixer memory 4202
Can be set. For example, the moving image display area is set to “1”, and the others are set to “0”, and when the display 4204 is output, the determination is performed for each pixel.
【0015】図18は、画面に表示されるマルチメディ
アデータをメディアの種類に係りなく、個人的なメモと
して記録できるアルゴリズムのPAD図である。ビデオ
フレームの内容を記述する3次元配列をVTR[n,
m,3]とし、フレームメモリの内容を記述する3次元
配列をFLM[n,m,3]とし、ミキサメモリの内容
を記述する2次元配列をMIX[n,m]とし、メモ用
のバッファメモリをBUF[n,m,3]とする(ステ
ップ4301)。以下、動作を説明する。学習を進める中
で、ユーザからメモを取りたいという要求があった場合
(ステップ4302)、マウスをボタンを押したまま移動させ
て離すことで(ステップ4304)、ユーザの要求するコピー
範囲として矩形領域の対角方向の2点(x0,y0)−
(x1,y1)を入力する(ステップ4303,4305)ことができ
る。この2点間の領域について、1画素ずつ画面データ
からメモ用のバッファメモリにコピーする。すなわち、
各画素の座標(i,j)について、MIX[i,j]の値
が「0」であれば(ステップ4306)、フレームメモリ(4203)
からメモ用のバッファメモリにコピーし(ステップ430
8)、また、MIX[i,j]の値が「1」であれば(ステ
ップ4306)、ビデオフレーム(4201)からメモ用のバッフ
ァメモリにコピーする(ステップ4309)。なお、図中kは
カラーのパラメータであり、RGB3色分、k=1,2,
3と変化させて同じ処理を繰り返す(ステップ4307,431
0)。図19は該メモ用のバッファメモリのイメージ図で
あり、上記処理終了後、該メモ用のバッファメモリの構
成はRGB3色について、(x0−x1)×(y0−y1)の大
きさの画面情報をファイルとして抽出できる。尚、抽出
後メモ用の文書ファイルに読み込み、編集する手段は、
例えば、日立クリエイティブワークステーション2050
OFIS/REPORT-EV(3)文法/操作書(2050-3-3
11)に記載されている如く、静止画の取り込み操作とし
て公知であり、ここでは、詳細は省略する。FIG. 18 is a PAD diagram of an algorithm capable of recording multimedia data displayed on the screen as a personal memo irrespective of the type of media. A three-dimensional array describing the contents of a video frame is represented by VTR [n,
m, 3], the three-dimensional array describing the contents of the frame memory is FLM [n, m, 3], the two-dimensional array describing the contents of the mixer memory is MIX [n, m], and a memo buffer is used. The memory is set to BUF [n, m, 3] (step 4301). Hereinafter, the operation will be described. When a user requests to take notes while learning
(Step 4302) By moving the mouse while keeping the button pressed and releasing it (Step 4304), two points (x 0 , y 0 ) in the diagonal direction of the rectangular area are set as the copy range requested by the user.
(x 1 , y 1 ) can be input (steps 4303 and 4305). The area between these two points is copied from the screen data to the memo buffer memory one pixel at a time. That is,
If the value of MIX [i, j] is “0” for the coordinates (i, j) of each pixel (step 4306), the frame memory (4203)
To the memo buffer memory (step 430).
8) If the value of MIX [i, j] is "1" (step 4306), the video frame (4201) is copied to the memo buffer memory (step 4309). Note that in the figure, k is a color parameter, for three colors of RGB, k = 1,2,
3 and the same process is repeated (steps 4307 and 431).
0). FIG. 19 is an image diagram of the buffer memory for the memo. After the above processing, the configuration of the buffer memory for the memo has a size of (x 0 −x 1 ) × (y 0 −y 1 ) for three colors RGB. Screen information can be extracted as a file. The means for reading and editing the document file for notes after extraction is
For example, Hitachi Creative Workstation 2050
OFIS / REPORT-EV (3) Grammar / Operation manual (2050-3-3
As described in 11), this operation is known as a still image capturing operation, and the details are omitted here.
【0016】[0016]
【発明の効果】以上、詳細に説明した如く、本発明によ
れば、学習者の学習の進行状況を管理することが可能
で、必要により、机の上で、教科書と参考書等の、複数
の文書を見比べることができるようなディスプレイ表示
方法,動画内の物,人等の動いているオブジェクトを、
画面のどこにあっても、その位置を直接マウスで指定す
ることが可能なマウスのポインティング方法、および、
学習者がメモに残したいと思う部分について、テキス
ト,グラフィック,静止画,動画等のメディアの種類に
係りなく、自由なメモファイルの作成方法、および、そ
のための装置を実現できるという顕著な効果を奏するも
のである。As described in detail above, according to the present invention, it is possible to manage the progress of learning by a learner, and if necessary, a plurality of textbooks and reference books can be stored on a desk. Display methods that allow you to compare documents, objects in moving images, and moving objects such as people.
A mouse pointing method that allows you to directly specify the position with the mouse anywhere on the screen, and
Regarding the part that the learner wants to leave in the memo, a remarkable effect that a free memo file creation method and a device for the memo file can be realized irrespective of the type of media such as text, graphics, still images, and moving images. To play.
【0017】[0017]
【図1】マルチメディアを用いた、計算機支援による学
習における、学習時間、休憩時間の管理方法を表すPA
D図である。FIG. 1 is a PA showing a method of managing learning time and break time in computer-assisted learning using multimedia.
FIG.
【図2】マルチメディアを用いた、計算機支援による学
習装置の構成図である。FIG. 2 is a configuration diagram of a computer-aided learning device using multimedia.
【図3】ディスプレイ制御ブロック図である。FIG. 3 is a display control block diagram.
【図4】文書縮小表示方法の全体PAD図である。FIG. 4 is an overall PAD diagram of a document reduction display method.
【図5】文書縮小表示方法における縮小画素選択アルゴ
リズムのPAD図である。FIG. 5 is a PAD diagram of a reduced pixel selection algorithm in the document reduced display method.
【図6】文書縮小表示方法における縮小画像生成アルゴ
リズムのPAD図である。FIG. 6 is a PAD diagram of a reduced image generation algorithm in the document reduced display method.
【図7】縮小画素選択アルゴリズム、縮小画像生成アル
ゴリズムによる画面の変化の1例のイメージ図である。FIG. 7 is an image diagram showing an example of a screen change by a reduced pixel selection algorithm and a reduced image generation algorithm.
【図8】文書縮小表示の一例である。FIG. 8 is an example of a document reduced display.
【図9】文書縮小表示方法における縮小画像生成アルゴ
リズムのPAD図である。FIG. 9 is a PAD diagram of a reduced image generation algorithm in the document reduced display method.
【図10】縮小画素選択アルゴリズム、縮小画像生成ア
ルゴリズムによる画面の変化の1例のイメージ図であ
る。FIG. 10 is an image diagram illustrating an example of a change in a screen by a reduced pixel selection algorithm and a reduced image generation algorithm.
【図11】文書縮小表示の一例である。FIG. 11 is an example of a document reduced display.
【図12】マウス受け付け領域のテーブルデータ構成図
である。FIG. 12 is a table data configuration diagram of a mouse reception area.
【図13】マウス受け付け領域のテーブルデータ作成ア
ルゴリズムのPAD図である。FIG. 13 is a PAD diagram of a table data creation algorithm of a mouse reception area.
【図14】動画中のマウスポインティングのPAD図で
ある。FIG. 14 is a PAD diagram of mouse pointing in a moving image.
【図15】マウス受け付け領域判定アルゴリズムのPA
D図である。FIG. 15 shows a PA of a mouse reception area determination algorithm.
FIG.
【図16】ディスプレイ制御機能ブロック図である。FIG. 16 is a block diagram of a display control function.
【図17】フレームメモリ,ビデオバッファの論理構成
図である。FIG. 17 is a logical configuration diagram of a frame memory and a video buffer.
【図18】切り貼りメモの処理アルゴリズムのPAD図
である。FIG. 18 is a PAD diagram of a processing algorithm of the cut / paste memo.
【図19】切り貼りメモのデータ構成図である。FIG. 19 is a data configuration diagram of a cut-and-paste memo.
1201:計算機、1202:イメージスキャナ、1203:光ディ
スク装置、1204:ディスク装置、1205:スピーカシステ
ム、1206:ディスプレイ、1207:キーボード、1208:マ
ウス、1209:時計。1201: computer, 1202: image scanner, 1203: optical disk device, 1204: disk device, 1205: speaker system, 1206: display, 1207: keyboard, 1208: mouse, 1209: clock.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 芳賀 博英 神奈川県川崎市麻生区王禅寺1099番地 株式会社日立製作所システム開発研究所 内 (56)参考文献 特開 平1−163874(JP,A) 特開 平2−147983(JP,A) 特開 昭61−61790(JP,A) 実開 昭57−28467(JP,U) 実開 昭63−48187(JP,U) 実公 平2−2281(JP,Y2) (58)調査した分野(Int.Cl.7,DB名) G09B 5/00 - 7/12 G06F 17/60 128 ────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Hirohide Haga 1099 Ozenji Temple, Aso-ku, Kawasaki City, Kanagawa Prefecture Hitachi Systems Development Laboratory Co., Ltd. (56) References JP-A-1-163874 (JP, A) JP-A-2-147983 (JP, A) JP-A-61-61790 (JP, A) JP-A-57-28467 (JP, U) JP-A-63-48187 (JP, U) JP-A-2-2281 (JP, A) , Y2) (58) Field surveyed (Int. Cl. 7 , DB name) G09B 5/00-7/12 G06F 17/60 128
Claims (5)
習支援のための情報処理を実行する学習支援システムに
おいて、 学習の内容を構成する複数の学習過程それぞれについ
て、各学習過程を学習者が実行すべき時間の許容範囲を
記憶する記憶手段と、 前記学習者が、前記複数の学習過程に含まれる学習過程
を実行した時間を計測する計測手段と、 計測された前記時間と前紀許容範囲を比較する比較手段
と、 比較の結果を出力する出力手段とを有するとともに、 前記記憶手段は、前記許容範囲として、前記各学習過程
を前記学習者が実行すべき時間の上限値および下限値を
記憶し、 前記比較手段は、計測された前記時間と前記上限値およ
び前記下限値を比較し、 前記出力手段は、計測された前記時間が前記上限値より
大きな場合は、前記比較手段での比較結果として、学習
が遅れていることを示す出力を、 計測された前記時間が前記下限値より小さな場合は、前
記比較手段での比較結果として、学習が進みすぎている
ことを示す出力を、 計測された前記時間が前記上限値より小さく前記下限値
より大きな場合は、前記比較手段での比較結果として、
学習が所定の進行状態であることを示す出力を行うこと
を特徴とする学習支援システム。1. A learning support system for executing information processing for learning support by managing the progress of learning, wherein a learner executes each learning process for each of a plurality of learning processes constituting the content of learning. Storage means for storing an allowable range of time to be performed; measuring means for measuring a time during which the learner has executed a learning process included in the plurality of learning processes; and comparing means for comparing, with an output means for outputting a result of comparison, the storage means, as the allowable range, each of said learning process
The upper and lower limits of the time that the learner should execute
The comparing means stores the measured time, the upper limit value, and
And the lower limit is compared, and the output means sets the measured time to be less than the upper limit.
If it is larger, the learning result is
If the measured time is smaller than the lower limit , the output indicating that the
Learning is progressing too much as a result of comparison by the comparison means
The output indicating that the measured time is less than the upper limit and the lower limit
If larger, as a result of comparison by the comparing means,
A learning support system for performing an output indicating that learning is in a predetermined progress state .
いて、 前記出力装置には、前記学習に関連する画像を表示する
ディスプレイが含まれることを特徴とする学習支援シス
テム。 2. The learning support system according to claim 1, wherein the output device includes a display for displaying an image related to the learning.
いて、さらに、 入力手段での入力に応じて、前記画像を縮小して前記デ
ィスプレイに表示する表示制御手段とを有することを特
徴とする学習支援システム。 3. The learning support system according to claim 2 , further comprising display control means for reducing said image in accordance with an input from said input means and displaying said image on said display. Support system.
いて、 前記表示制御手段は、縮小された前記画像を複数、前記
ディスプレイに表示することを特徴とする学習支援シス
テム。 4. The learning support system according to claim 3 , wherein said display control means displays a plurality of said reduced images on said display.
いて、 さらに、前記学習者の当該学習支援システムに対する入
力を受付ける入力手段を有し、 前記表示制御手段は、前記ディスプレイに表示された複
数の画像のうち、前記入力手段での入力に従って指定さ
れた画像を拡大して表示することを特徴とする学習支援
システム。 5. The learning support system according to claim 4, further comprising input means for receiving an input of said learner to said learning support system, wherein said display control means includes a plurality of display means displayed on said display. A learning support system characterized in that, among images, an image specified according to an input from the input means is displayed in an enlarged manner.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP13088991A JP3284561B2 (en) | 1991-06-03 | 1991-06-03 | Learning support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP13088991A JP3284561B2 (en) | 1991-06-03 | 1991-06-03 | Learning support system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH04355490A JPH04355490A (en) | 1992-12-09 |
JP3284561B2 true JP3284561B2 (en) | 2002-05-20 |
Family
ID=15045077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP13088991A Expired - Fee Related JP3284561B2 (en) | 1991-06-03 | 1991-06-03 | Learning support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3284561B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006133615A (en) * | 2004-11-08 | 2006-05-25 | Nagaoka Univ Of Technology | System which detects heterogeneous training process and provides its circumstances visually on the basis of student's training time required in e-learning |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0008490D0 (en) * | 2000-04-07 | 2000-05-24 | Purvis Jan | Improved method of teaching |
GB2371194B (en) * | 2000-10-06 | 2005-01-26 | Canon Kk | Image processing apparatus |
JP2015049649A (en) * | 2013-08-30 | 2015-03-16 | 株式会社ベネッセコーポレーション | Learning support system and program therefor |
-
1991
- 1991-06-03 JP JP13088991A patent/JP3284561B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006133615A (en) * | 2004-11-08 | 2006-05-25 | Nagaoka Univ Of Technology | System which detects heterogeneous training process and provides its circumstances visually on the basis of student's training time required in e-learning |
Also Published As
Publication number | Publication date |
---|---|
JPH04355490A (en) | 1992-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5893126A (en) | Method and apparatus for annotating a computer document incorporating sound | |
US7225405B1 (en) | System and method for audio creation and editing in a multimedia messaging environment | |
US5692205A (en) | Method and system for integration of multimedia presentations within an object oriented user interface | |
US6313836B1 (en) | Three dimensional model with three dimensional pointers and multimedia functions linked to the pointers | |
JP3411305B2 (en) | Method and apparatus for multimedia authoring system and presentation system | |
JPH0555893B2 (en) | ||
CN105978870B (en) | Handwriting real-time sharing method and device in teaching system | |
US10955999B2 (en) | Controlled content presentation of objects on a canvas in a browser according to a grid | |
JPH05205024A (en) | Information control method and multi-medium system using the same | |
JP2012003689A (en) | Information processor, information processing method and program | |
JP2002044585A (en) | Lecture recording and reproducing method using computer | |
CN109782986A (en) | A kind of production method of teaching courseware, storage medium and application system | |
JPH056251A (en) | Device for previously recording, editing and regenerating screening on computer system | |
JP4010094B2 (en) | Lecture information presentation device for remote locations | |
JP6686578B2 (en) | Information processing apparatus and information processing program | |
JP3284561B2 (en) | Learning support system | |
JPH05137103A (en) | Presentation device | |
JP2014153688A (en) | System for lecture | |
JPH06118916A (en) | Operation device and reproducing device, and data editing device for operation device | |
JPS6260069A (en) | Image processor | |
JP3014209B2 (en) | Image information presentation device | |
TWI819843B (en) | An online teaching platform with retrieval auxiliary functions | |
JP6217132B2 (en) | Information processing apparatus and program | |
JP3137053B2 (en) | Handwritten input display device and machine-readable recording medium recording program | |
US20230359335A1 (en) | Systems, methods, and user interfaces for editing digital assets |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |