JPH05265369A - Learning device - Google Patents

Learning device

Info

Publication number
JPH05265369A
JPH05265369A JP6204492A JP6204492A JPH05265369A JP H05265369 A JPH05265369 A JP H05265369A JP 6204492 A JP6204492 A JP 6204492A JP 6204492 A JP6204492 A JP 6204492A JP H05265369 A JPH05265369 A JP H05265369A
Authority
JP
Japan
Prior art keywords
learner
question
memory
stored
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6204492A
Other languages
Japanese (ja)
Inventor
Toshiaki Wada
利昭 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=13188773&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JPH05265369(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP6204492A priority Critical patent/JPH05265369A/en
Publication of JPH05265369A publication Critical patent/JPH05265369A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To improve learning effect more by deciding the mental state of a learner from the motion of the learner and displaying a question and an explanation corresponding to the mental state of the learner. CONSTITUTION:This device is equipped with a detecting means 1 which detects the motion of the learner, a deciding means 2 which decides the metal state of the learner from the detection result, a selecting means 3 which selects the proper question or explanation according to the decision result, a display means 5 which displays the selected question or explanation to the learner, and an input means 6 which inputs the answer of the learner to the selected question or explanation, and the selecting means 3 further selects whether the learner's answer inputted from the input means 6 is correct or not and selects a next question or explanation according to the mental state of the learner decided by the deciding means 2.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は学習装置に関し、特に、
コンピュ―タ学習装置(CAI装置)に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a learning device, and in particular,
The present invention relates to a computer learning device (CAI device).

【0002】[0002]

【従来技術】CAI装置は、あらかじめ難易度の異なる
多数の問題や、学習事項の解説をデ―タベ―スに記憶し
ておき、学習者の理解度に応じて、前記デ―タベ―スよ
り適当な問題や、解説を選択して学習者に提示するもの
である。学習者は提示された問題に答える。CAI装置
は、学習者の解答が正解ならばより難易度の高い問題を
学習者に提示する。他方、学習者の解答が不正解なら
ば、CAI装置はより難易度の低い問題を提示するか、
又は、学習事項の解説を表示して学習者が学習事項を理
解するようにする。
2. Description of the Related Art A CAI device stores a large number of problems with different degrees of difficulty and explanations of learning items in a database, and according to the degree of understanding of a learner, This is to present an appropriate question or explanation to the learner by selecting it. The learner answers the question presented. The CAI device presents a problem with higher difficulty to the learner if the learner's answer is correct. On the other hand, if the learner's answer is incorrect, the CAI device will present a less difficult question, or
Alternatively, the explanation of the learning items is displayed so that the learner can understand the learning items.

【0003】[0003]

【発明が解決しようとする課題】上記のような従来の学
習装置は、提示した問題に対する学習者の解答のみによ
って学習事項に対する理解度を判定していた。また、学
習者の心理状態に関係無く一方的に問題や解説を提示し
ていたので十分な学習効果を上げることができなかっ
た。
In the conventional learning device as described above, the degree of understanding of the learning item is determined only by the answer of the learner to the presented question. Moreover, since the problem and the explanation were unilaterally presented regardless of the psychological state of the learner, the sufficient learning effect could not be obtained.

【0004】本発明の学習装置は、このような課題に着
目してなされたものであり、その目的とするところは、
学習者の心理状態を学習者の動きに基づいて判定して、
学習者の心理状態に応じた問題や解説を提示することに
よって、学習効果の向上が計れる学習装置を提供するこ
とにある。
The learning device of the present invention has been made by paying attention to such a problem, and its purpose is to:
Judging the learner's psychological state based on the learner's movements,
An object of the present invention is to provide a learning device capable of improving the learning effect by presenting problems and explanations according to the psychological state of the learner.

【0005】[0005]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明の学習装置は、学習者の動作を検出する検
出手段と、この検出手段からの検出結果に基づいて学習
者の心理状態を判定する判定手段と、この判定手段から
の判定に基ずいて適当な問題又は解説を選択する選択手
段と、この選択手段によって選択された問題又は解説を
学習者に提示する提示手段と、提示された問題又は解説
に対する学習者の解答を入力する入力手段とを具備し、
前記選択手段は、前記入力手段から入力された学習者の
解答の正誤と、前記判定手段によって判定された学習者
の心理状態とに基づいて、次の問題又は解説をさらに選
択する。
In order to achieve the above object, the learning device of the present invention comprises a detecting means for detecting a learner's motion, and a psychology of the learner based on the detection result from the detecting means. Judging means for judging the state, selecting means for selecting an appropriate problem or commentary based on the judgment from this judging means, and presenting means for presenting the problem or commentary selected by this selecting means to the learner, And an input means for inputting a learner's answer to the presented question or explanation,
The selecting means further selects the next question or explanation based on the correctness or incorrectness of the learner's answer inputted from the inputting means and the learner's psychological state judged by the judging means.

【0006】[0006]

【作用】すなわち、本発明の学習装置においては、学習
者の動作からその心理状態を判定し、判定された心理状
態に基づいて適当な問題又は解説を選択して学習者に提
示するとともに、問題又は解説に対する学習者の解答の
正誤と、学習者の心理状態とに基づいて、次の問題又は
解説をさらに選択し学習者に提示する。
That is, in the learning device of the present invention, the psychological state is determined from the learner's action, and an appropriate problem or explanation is selected based on the determined psychological state and presented to the learner. Alternatively, the next question or comment is further selected and presented to the learner based on the correctness of the learner's answer to the commentary and the psychological state of the learner.

【0007】[0007]

【実施例】以下に図面を参照して本発明の学習装置の一
実施例を詳細に説明する。図1は、一実施例としてのC
AI装置の構成を示すものであり、以下この構成に基づ
いて動作を説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the learning device of the present invention will be described in detail below with reference to the drawings. FIG. 1 shows C as an example.
The configuration of the AI device is shown, and the operation will be described below based on this configuration.

【0008】まず、学習者の動作をテレビカメラ又は圧
力センサなどを含む動作検出部1で連続的に検出する。
検出された時系列信号は、心理状態判定部2に送られ
る。心理状態判定部2では、学習者の動きから、学習者
の心理状態、例えば学習に集中しているとか、飽きてき
ているとかを判定する。
First, the learner's motion is continuously detected by the motion detector 1 including a television camera or a pressure sensor.
The detected time series signal is sent to the psychological state determination unit 2. The psychological state determination unit 2 determines, based on the learner's movement, the psychological state of the learner, for example, whether the learner is concentrated on learning or tired.

【0009】問題・解説選択部3はその判定結果にもと
ずいて、デ―タベ―ス4より適切な問題又は解説を選択
して表示装置5により学習者に提示する。学習者は解答
入力装置6により解答を入力する。問題・解説選択部3
は学習者により与えられた解答の正誤と、心理状態判定
部2によって判定された学習者の心理状態に応じて、次
の問題又は解説をデ―タベ―ス4より選択して学習者に
提示する。
The question / explanation selection unit 3 selects an appropriate question or explanation from the database 4 based on the result of the determination and presents it to the learner on the display device 5. The learner inputs the answer using the answer input device 6. Problem / Explanation Selection Section 3
Selects the next question or explanation from the database 4 and presents it to the learner according to the correctness of the answer given by the learner and the psychological state of the learner judged by the psychological condition judging section 2. To do.

【0010】図2は図1の動作検出部1のブロック図で
ある。以下に、この動作を説明する。TVカメラ10に
より学習者の顔面を連続的に撮影することによって学習
者の動作を検出する。TVカメラ10の撮影画像は所定
時間ごとに読み出され、A/D変換器11によってデジ
タルデ―タに変換された後、メモリA12又はメモリB
13のいずれかに記憶される。メモリA12とメモリB
13には、読み出し時間間隔をおいて交互に1フレ―ム
分の画像デ―タが記憶される。すなわち、はじめにメモ
リA12に画像が記憶されれば、次に読み出された画像
はメモリB13に記憶され、次の画像は再びメモリA1
2に記憶される。以下、メモリB13に、メモリA12
より1読出しサイクル後に画像が記憶されたとして説明
する。
FIG. 2 is a block diagram of the motion detector 1 of FIG. This operation will be described below. The motion of the learner is detected by continuously photographing the face of the learner with the TV camera 10. The image taken by the TV camera 10 is read out at predetermined time intervals, converted into digital data by the A / D converter 11, and then stored in the memory A 12 or the memory B.
13 is stored. Memory A12 and memory B
The image data for one frame is alternately stored in 13 at read time intervals. That is, if the image is first stored in the memory A12, the next read image is stored in the memory B13, and the next image is stored again in the memory A1.
Stored in 2. Hereinafter, the memory A12 will be stored in the memory B13.
It is assumed that the image is stored after one read cycle.

【0011】図3(a)に示すように、演算器14はメ
モリA12に記憶されている学習者の顔面画像中に所定
のサイズのウインドウ領域を設定する。画像メモリA1
2及び画像メモリB13に記憶されている画像には、画
像の左上端を原点として水平及び垂直方向に1ピクセル
ごとにアドレスが割り当てられている。ここで、ウイン
ドウサイズを水平方向がHピクセル、垂直方向がVピク
セルとし、ウインドウの左上端の水平方向のアドレスを
X,垂直方向のアドレスをYとすれば、ウインドウ内の
画像は、以下の式(1)のように行列Wで表わされる。
As shown in FIG. 3A, the calculator 14 sets a window area of a predetermined size in the face image of the learner stored in the memory A12. Image memory A1
2 and the image stored in the image memory B13 are assigned addresses for each pixel in the horizontal and vertical directions with the upper left end of the image as the origin. Here, if the window size is H pixels in the horizontal direction and V pixels in the vertical direction, and the horizontal address of the upper left corner of the window is X and the vertical address is Y, the image in the window is expressed by the following formula. It is represented by the matrix W as in (1).

【0012】[0012]

【数1】 ここで、Wを横方向にスキャンし、各スキャンラインを
上から下に一本につなげてベクトル化してfとする。す
なわち、
[Equation 1] Here, W is scanned in the horizontal direction, and each scan line is connected from top to bottom to be vectorized to be f. That is,

【0013】[0013]

【数2】 である。なお、W及びfの各要素は画像の明るさであ
る。
[Equation 2] Is. Each element of W and f is the brightness of the image.

【0014】次に、メモリB13に記憶されている画像
に、メモリA12の画像に設定したウインドウと同じサ
イズのウインドウを設定する。そして、メモリB13に
設定したウインドウの原点の位置を、図3(b)のよう
に、メモリA12のウインドウの原点位置(X,Y)よ
り所定の範囲で水平及び垂直方向に変化させて、以下の
式(3)で定義される差eijを計算し最小となるi,j
を求める。
Next, a window having the same size as the window set for the image in the memory A12 is set in the image stored in the memory B13. Then, the position of the origin of the window set in the memory B13 is changed horizontally and vertically within a predetermined range from the origin position (X, Y) of the window of the memory A12 as shown in FIG. The difference e ij defined by the equation (3) is calculated to minimize i, j
Ask for.

【0015】[0015]

【数3】 [Equation 3]

【0016】ここでhはメモリB13に設定したウイン
ドウの原点位置の水平方向の変化の最大ピクセル数、v
はメモリB13に設定したウインドウの原点位置の垂直
方向の変化の最大ピクセル数である。hとvはそれぞ
れ、前記1読出しサイクル中にTVカメラ10の画像領
域中を水平及び垂直に移動する最大値以上に決められ
る。
Here, h is the maximum number of pixels in the horizontal change of the origin position of the window set in the memory B13, and v
Is the maximum number of pixels in the vertical direction change of the origin position of the window set in the memory B13. Each of h and v is determined to be equal to or larger than the maximum value of moving horizontally and vertically in the image area of the TV camera 10 during the one read cycle.

【0017】gijはウインドウの原点位置を(X+i,
Y+j)とした時のメモリB13に設定されたウインド
ウ画像を式(2)と同様にベクトルで表わしたものであ
る。また、式(3)を最小にするgijは、メモリA12
のウインドウ部分の画像と最も似ているメモリB13の
ウインドウ画像である。すなわち、i,jはそれぞれ1
読出しサイクル中の顔面の水平及び垂直方向の変位を表
わす。
G ij is the window origin position (X + i,
The window image set in the memory B13 when Y + j) is represented by a vector as in the equation (2). Further, g ij that minimizes the equation (3) is the memory A12.
It is the window image of the memory B13 that is the most similar to the image of the window part of. That is, i and j are 1
It represents the horizontal and vertical displacement of the face during a read cycle.

【0018】演算器14で計算された顔面画像の水平及
び垂直方向の読出しサイクルごとの変位は、所定の時間
間隔にわたってメモリ15に記憶される。メモリ15に
記憶された水平及び垂直方向の変位(図4(a))は、
演算器16でフ―リエ変換された後、2乗が計算され
(図4(b))、複数の所定周波数での、前記フ―リエ
変換の2乗の値が抽出されて(図4(c))、心理状態
判定部2に送られる。
The displacement of the face image for each reading cycle in the horizontal and vertical directions calculated by the calculator 14 is stored in the memory 15 over a predetermined time interval. The horizontal and vertical displacements stored in the memory 15 (FIG. 4A) are
After the Fourier transform by the calculator 16, the square is calculated (FIG. 4B), and the squared values of the Fourier transform at a plurality of predetermined frequencies are extracted (see FIG. c)), and sent to the psychological state determination unit 2.

【0019】心理状態判定部2は、図5に示すように階
層型ニュ―ラルネットワ―クで構成されている。本実施
例では3層のニュ―ラルネットワ―クであり、ニュ―ロ
ンユニット21a〜21cによる中間層、ニュ―ロンユ
ニット22a〜22cによる出力層、それに分枝端子2
0a〜20cが入力層を構成している。各ニュ―ロンユ
ニット21a〜21c及び22a〜22cは以下の式
(4)の計算を実行する。
The psychological state determining section 2 is composed of a hierarchical neural network as shown in FIG. In this embodiment, a three-layer neural network is used, which includes an intermediate layer including the neuron units 21a to 21c, an output layer including the neuron units 22a to 22c, and a branch terminal 2.
0a to 20c constitute the input layer. Each neuron unit 21a-21c and 22a-22c performs the calculation of the following formula (4).

【0020】[0020]

【数4】 [Equation 4]

【0021】ここでXi はi番目の入力、Wi はi番目
の入力結合強度、θはニュ―ロンユニットの閾値、Nは
入力信号の数、yはニュ―ロンユニットの出力、fは以
下の式(5)に示すシグモイド関数である。
Where X i is the i-th input, W i is the i-th input coupling strength, θ is the threshold of the neuron unit, N is the number of input signals, y is the output of the neuron unit, and f is It is a sigmoid function shown in the following equation (5).

【0022】[0022]

【数5】 図6は各ニュ―ロンユニットのブロック図である。[Equation 5] FIG. 6 is a block diagram of each neuron unit.

【0023】演算器16から、図4(c)に示すよう
な、フ―リエ変換の2乗の所定周波数での値のデ―タが
次々に心理状態判定部に送られてくる。まず第1番目の
デ―タが送られてきて、分枝端子20a〜20cで分枝
して、ニュ―ロンユニット21a〜21cに入力する。
The data of the value at the predetermined frequency of the square of the Fourier transform as shown in FIG. 4 (c) is sent from the arithmetic unit 16 to the psychological state judging section one after another. First, the first data is sent, branched at the branch terminals 20a to 20c, and input to the neuron units 21a to 21c.

【0024】各ニュ―ロンユニット21a〜21cで
は、第1番目のデ―タは入力バッファ30を通して演算
器31に入力する。演算器31ではこの第1番目のデ―
タと、重みメモリ35に記憶されている第1番目の重み
デ―タの積が計算され、レジスタ33に記憶される。
In each of the neuro units 21a to 21c, the first data is input to the arithmetic unit 31 through the input buffer 30. In the arithmetic unit 31, this first data
The product of the data and the first weight data stored in the weight memory 35 is calculated and stored in the register 33.

【0025】次に2番目のデ―タが演算器16から送ら
れてきて、分枝端子20a〜20cで分枝して、ニュ―
ロンユニット21a〜21cに入力する。各ニュ―ロン
ユニット21a〜21cでは、2番目のデ―タは入力バ
ッファ30を通して演算器31に入力する。演算器31
では、この2番目のデ―タと、重みメモリ35に記憶さ
れている2番目の重みデ―タの積が計算され、この積の
値がレジスタ33に記憶されている値に加算される。
Next, the second data is sent from the arithmetic unit 16 and branched at branching terminals 20a to 20c.
Input to the long units 21a to 21c. In each of the neuro units 21a to 21c, the second data is input to the arithmetic unit 31 through the input buffer 30. Calculator 31
Then, the product of this second data and the second weight data stored in the weight memory 35 is calculated, and the value of this product is added to the value stored in the register 33.

【0026】同様の過程が演算器16から送られてくる
全てのデ―タについてくり返される。演算器16から送
られてきた全デ―タについての計算終了後、演算器31
はレジスタ33に記憶されている上記計算結果から閾値
メモリ34に記憶されている値を引き算し、その結果の
値を関数テ―ブル36に記憶されている、式(5)のx
とf(x) との対応表により、xとして上記引き算の結果
の値に対応したf(x)の値を求めて出力バッファ32を
介して出力する。重みメモリ35には式(4)のW
i (i=1〜N)、又、閾値メモリ34には式(4)の
θがあらかじめ記憶されている。これらの値は、学習器
24により後に述べる一般化デルタル―ルによって求め
られたものである。
The same process is repeated for all the data sent from the arithmetic unit 16. After the calculation of all the data sent from the arithmetic unit 16 is completed, the arithmetic unit 31
Subtracts the value stored in the threshold memory 34 from the above calculation result stored in the register 33, and stores the resulting value in the function table 36 as x in the equation (5).
And f (x) are associated with each other, a value of f (x) corresponding to the value of the subtraction result is obtained as x and is output via the output buffer 32. In the weight memory 35, W in equation (4)
i (i = 1 to N), and θ in the equation (4) is stored in advance in the threshold memory 34. These values are obtained by the learning device 24 by the generalized delta rule described later.

【0027】中間層における処理の終了後、中間層のニ
ュ―ロンユニット21a〜21cの出力は、ニュ―ロン
ユニット21aから順番に読み出されて出力層のニュ―
ロンユニット22a〜22cに入力する。まず、ニュ―
ロンユニット21aの出力が読み出される。出力層の各
ニュ―ロンユニット22a〜22cでは、ニュ―ロンユ
ニット21aの出力デ―タは、入力バッファ30を通し
て演算器31に入力する。演算器31では、このデ―タ
と、重みメモリ35に記憶されている中間層のニュ―ロ
ンユニットと同数の重みデ―タの1番目のデ―タとの積
が計算され、レジスタ33に記憶される。
After the processing in the intermediate layer is completed, the outputs of the neuron units 21a to 21c in the intermediate layer are sequentially read from the neuron unit 21a, and output from the neurons in the output layer.
Input to the long units 22a to 22c. First of all,
The output of the long unit 21a is read. In each of the neuron units 22a to 22c in the output layer, the output data of the neuron unit 21a is input to the arithmetic unit 31 through the input buffer 30. The arithmetic unit 31 calculates the product of this data and the first data of the same number of weight data as the neuron unit of the intermediate layer stored in the weight memory 35, and stores it in the register 33. Remembered.

【0028】次にニュ―ロンユニット21bの出力が読
み出されて、出力層のニュ―ロンユニット22a〜22
cに入力する。この2番目の読み出しデ―タは、入力バ
ッファ30を通して演算器31に入力する。
Next, the output of the neuron unit 21b is read out, and the neuron units 22a to 22 in the output layer are read out.
Enter in c. This second read data is input to the arithmetic unit 31 through the input buffer 30.

【0029】演算器31では、このデ―タと、重みメモ
リに記憶されている2番目の重みデ―タの積が計算さ
れ、この積の値がレジスタ33に記憶されている値に加
算される。同様の過程が、中間層の全ニュ―ロンユニッ
トの出力デ―タについてくり返される。中間層の全ニュ
―ロンユニットの出力デ―タについての計算終了後、演
算器31はレジスタ33に記憶されている値を引き算
し、その結果の値を関数テ―ブル36に記憶されてい
る、式(5)のxとf(x) との対応表により、xとして
上記引き算の結果の値に対応したf(x) の値を求めて、
出力バッファ32を介して出力する。
The arithmetic unit 31 calculates the product of this data and the second weight data stored in the weight memory, and the value of this product is added to the value stored in the register 33. It A similar process is repeated for the output data of all neuron units in the middle layer. After the calculation of the output data of all the neuron units in the intermediate layer is completed, the arithmetic unit 31 subtracts the value stored in the register 33, and the resulting value is stored in the function table 36. , The value of f (x) corresponding to the value of the result of the above subtraction is obtained as x from the correspondence table of x and f (x) in the equation (5),
Output through the output buffer 32.

【0030】出力層のニュ―ロンユニット22a〜22
cの出力値のパタ―ンが、学習者の心理状態を表わして
いる。中間層のニュ―ロンユニット21a〜21cと同
様に出力層の各ニュ―ロンユニット22a〜22cの重
みメモリ35及び閾値メモリ34に記憶されているデ―
タは、以下に述べるデビット・ラメルハ―トらによって
考案された一般化デルタル―ル(「PDPモデル・認知
科学とニュ―ロン回路網の探索、第8章」D.E.ラメ
ルハ―ト、J.L.マクレランド、PDPリサ―チグル
―プ著、甘利俊一監訳、産業図書(1989))によっ
て求められたものである。
Output unit neuron units 22a to 22
The pattern of the output value of c represents the psychological state of the learner. The data stored in the weight memory 35 and the threshold value memory 34 of each of the neuron units 22a to 22c of the output layer as well as the neuron units 21a to 21c of the intermediate layer.
The generalized delta rule devised by David Lamelhardt et al. L. McClellan, PDP Research Group, Shunichi Amari, translated, Sangyo Tosho (1989)).

【0031】まず、図2に示す装置により、前記した過
程を経て、学習者の動きに関するサンプルデ―タを多数
採取し、サンプルデ―タメモリ23に記憶する。サンプ
ルデ―タメモリ23に記憶されるデ―タは、図4(c)
に示すように、学習者の水平及び垂直方向での変位パタ
―ンをフ―リエ変換し2乗したものの、所定周波数での
値の組である。この値の組を学習ベクトルxp (p=1
〜m)で表わす。mはサンプルデ―タの数である。一般
化デルタル―ルでは、
First, the apparatus shown in FIG. 2 collects a large number of sample data relating to the learner's movement through the process described above and stores it in the sample data memory 23. The data stored in the sample data memory 23 is shown in FIG.
As shown in, the displacement pattern in the horizontal and vertical directions of the learner is Fourier transformed and squared, and is a set of values at a predetermined frequency. This set of values is used as the learning vector x p (p = 1
~ M). m is the number of sample data. In the generalized delta rule,

【0032】[0032]

【数6】 [Equation 6]

【0033】が減小するように各ニュ―ロンユニットの
重みと閾値を変化させていく。ここでyp (p=1,
…,m)は、学習ベクトルxp をニュ―ラルネットワ―
クに入力した時に得られるニュ―ラルネットワ―クの出
力パタ―ンベクトルである。dpは、学習ベクトルxp
に対して、ニュ―ラルネットワ―クの出力してほしいパ
タ―ンベクトルで、教師ベクトルと呼ばれるものであ
る。教師ベクトルはサンプルデ―タ収集時に学習者の心
理状態を心理学のエキスパ―トが判定して教師信号入力
装置25より入力する。各重みの更新量ΔWは最急降下
法により求められる。
The weight and threshold value of each neuron unit are changed so as to decrease. Where y p (p = 1,
…, M) is the learning vector x p is the neural network.
This is the output pattern vector of the neural network obtained when input to the network. d p is a learning vector x p
On the other hand, it is a pattern vector that the neural network wants to output and is called a teacher vector. The teacher vector is input from the teacher signal input device 25 after the psychology expert determines the psychological state of the learner at the time of collecting the sample data. The update amount ΔW of each weight is obtained by the steepest descent method.

【0034】[0034]

【数7】 出力層のニュ―ロンユニットjのi番目の重みの変化量
ΔWjiは、
[Equation 7] The change amount ΔW ji of the i-th weight of the neuron unit j in the output layer is

【0035】[0035]

【数8】 で求まり、中間層のニュ―ロンユニットiのh番目の重
みの変化量ΔWihは、
[Equation 8] And the change amount ΔW ih of the h-th weight of the neuron unit i in the middle layer is

【0036】[0036]

【数9】 [Equation 9]

【0037】で求まる。xhpは学習ベクトルxp のh番
目の要素であり、yjp,yipはそれぞれ、学習ベクトル
p をニュ―ラルネットワ―クに入力した時の出力層の
ニュ―ロンユニットjの出力及び、中間層のニュ―ロン
ユニットiの出力値である。
It can be obtained by x hp is the h-th element of the learning vector x p , and y jp and y ip are the output of the neuron unit j of the output layer when the learning vector x p is input to the neural network, and This is the output value of the neuron unit i in the middle layer.

【0038】djpは学習ベクトルxp に対する望ましい
出力パタ―ンベクトルdp のj番目の要素である。rは
出力層のニュ―ロンユニットの数である。なお閾値θに
ついては、各ニュ―ロンユニットに対して、常に−1が
入力する端子の重みと考えれば、式(8)と式(9)に
よって求めることができる。
[0038] d uk is the desired output pattern for learning vector x p - a j th element of Nbekutoru d p. r is the number of neuron units in the output layer. It should be noted that the threshold value θ can be obtained by the equations (8) and (9), assuming that −1 is always the weight of the terminal input to each neuron unit.

【0039】はじめに各重みを絶対値が小さい乱数で初
期化しておき、式(8),式(9)を各学習ベクトルに
対してくり返し実行し、式(6)のEが十分小さくなっ
た時点で処理を終了し、各重みの値をそれぞれ対応する
ニュ―ロンユニットの重みメモリ35と閾値メモリ34
に記憶する。以上の過程により、心理状態判定部2は学
習者の動作より、その学習者の心理状態を判定すること
ができるようになる。
First, each weight is initialized by a random number having a small absolute value, and the equations (8) and (9) are repeatedly executed for each learning vector, and when E in the equation (6) becomes sufficiently small. Then, the processing ends with the weight memory 35 and the threshold memory 34 of the corresponding neuron unit for each weight value.
Remember. Through the above process, the psychological state determination unit 2 can determine the psychological state of the learner from the action of the learner.

【0040】問題・解説選択部3は、学習者の心理状態
を表わす、心理状態判定部2の出力層のニュ―ロンユニ
ット22a〜22cの出力値のパタ―ンにより、デ―タ
ベ―スに記憶されている問題や解説から適当なものを選
択し、表示装置5に表示する。学習者は、その問題に対
する解答を解答入力装置6により入力する。
The problem / commentary selection unit 3 is made into a database based on the patterns of the output values of the neuron units 22a to 22c in the output layer of the psychological state determination unit 2 which represent the psychological state of the learner. An appropriate one is selected from the stored problems and explanations and displayed on the display device 5. The learner inputs the answer to the question using the answer input device 6.

【0041】さらに、問題・解説選択部3は、学習者の
解答の正誤を判定し、その判定結果と、心理状態判定部
の出力デ―タとに基づいて、デ―タベ―スに記憶されて
いる問題や解説から適当なものを選択し表示装置5によ
り学習者に表示する。以上の過程を学習時間の間くり返
す。なお、デ―タベ―ス4に、ゲ―ムや物語、音楽など
を記憶しておき、学習者が学習にあきてきたと判定した
時にはそれらより適当なものを選択するようにして、学
習者が息ぬきできるようにすることも可能である。
Further, the question / explanation selection unit 3 determines whether the learner's answer is correct or not, and is stored in the database based on the determination result and the output data of the psychological state determination unit. An appropriate problem is selected from the problems and explanations displayed and displayed to the learner by the display device 5. The above process is repeated during the learning time. It should be noted that the database 4, the game, the story, the music, etc. are stored in memory, and when the learner is determined to have come to study, he / she can select an appropriate one, and the learner It is also possible to be able to breathe out.

【0042】[0042]

【発明の効果】本発明の学習装置によれば、学習者の心
理状態を学習者の動作パタ―ンにより判定して、学習者
の心理状態に応じた問題や解説などを提示できるので学
習効果が向上する。
According to the learning device of the present invention, the psychological state of the learner can be judged by the motion pattern of the learner, and problems and explanations corresponding to the psychological state of the learner can be presented. Is improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の学習装置の一実施例としてのコンピュ
ータ学習装置の構成を示す図である。
FIG. 1 is a diagram showing a configuration of a computer learning device as an example of a learning device of the present invention.

【図2】図1の動作検出部のブロック図である。FIG. 2 is a block diagram of a motion detector of FIG.

【図3】学習者の顔面画像中に所定のサイズのウインド
ウ領域が設定されるようすを示す図である。
FIG. 3 is a diagram showing how a window area of a predetermined size is set in a face image of a learner.

【図4】学習者の垂直及び水平方向の変移を表す信号の
波形図である。
FIG. 4 is a waveform diagram of a signal representing vertical and horizontal shifts of a learner.

【図5】図1の心理状態判定部としての階層型ニューラ
ルネットワークの構成を示す図である。
5 is a diagram showing a configuration of a hierarchical neural network as a psychological state determination unit in FIG.

【図6】ニューロンユニットのブロック図である。FIG. 6 is a block diagram of a neuron unit.

【符号の説明】[Explanation of symbols]

1…動作検出部、2…心理状態判定部、3…問題・解説
選択部、4…データベース、5…表示装置、6…解答入
力装置。
DESCRIPTION OF SYMBOLS 1 ... Motion detection part, 2 ... Mental state determination part, 3 ... Question / commentary selection part, 4 ... Database, 5 ... Display device, 6 ... Answer input device.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 学習者の動作を検出する検出手段と、 この検出手段からの検出結果に基づいて学習者の心理状
態を判定する判定手段と、 この判定手段からの判定に基ずいて適当な問題又は解説
を選択する選択手段と、 この選択手段によって選択された問題又は解説を学習者
に提示する提示手段と、 提示された問題又は解説に対する学習者の解答を入力す
る入力手段とを具備し、 前記選択手段は、前記入力手段から入力された学習者の
解答の正誤と、前記判定手段によって判定された学習者
の心理状態とに基づいて、次の問題又は解説をさらに選
択することを特徴とする学習装置。
1. A detecting means for detecting a motion of a learner, a judging means for judging a psychological state of a learner based on a detection result from the detecting means, and an appropriate means based on the judgment from the judging means. It comprises a selection means for selecting a question or commentary, a presentation means for presenting the learner the question or commentary selected by this selection means, and an input means for inputting a learner's answer to the presented question or commentary. The selecting means further selects the next question or commentary based on the correctness of the learner's answer input from the inputting means and the psychological state of the learner determined by the determining means. And learning device.
JP6204492A 1992-03-18 1992-03-18 Learning device Pending JPH05265369A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6204492A JPH05265369A (en) 1992-03-18 1992-03-18 Learning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6204492A JPH05265369A (en) 1992-03-18 1992-03-18 Learning device

Publications (1)

Publication Number Publication Date
JPH05265369A true JPH05265369A (en) 1993-10-15

Family

ID=13188773

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6204492A Pending JPH05265369A (en) 1992-03-18 1992-03-18 Learning device

Country Status (1)

Country Link
JP (1) JPH05265369A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020005819A (en) * 2000-07-10 2002-01-18 김재관 Method for Providing Interactive Tutoring and Learning Services Using Internet
JP2002119679A (en) * 2000-10-13 2002-04-23 Sanyo Product Co Ltd Game machine
JP2002288602A (en) * 2001-03-28 2002-10-04 Nec Corp Interpretation system using id tag
JP2003228272A (en) * 2002-02-06 2003-08-15 Univ Saga Educational material learning system
JP2003337528A (en) * 2002-05-17 2003-11-28 Nec Corp Learning system, learning method, and learning program capable of reflecting learner's learning state
JP2005242018A (en) * 2004-02-26 2005-09-08 Takuto:Kk Individual curriculum creation system, individual curriculum creation method and program
JP2006023506A (en) * 2004-07-07 2006-01-26 Tokai Univ Electronic teaching material learning support device, electronic teaching material learning support system, electronic teaching material learning support method, and electronic learning support program
JP2006023566A (en) * 2004-07-08 2006-01-26 Matsushita Electric Ind Co Ltd Degree-of-comprehension determining system and method therefor
WO2018207519A1 (en) * 2017-05-12 2018-11-15 パナソニックIpマネジメント株式会社 Behavioral objective achievement support system, information processing method, and program
JP2019101161A (en) * 2017-11-30 2019-06-24 国立大学法人佐賀大学 Test device, test method and test program
JP6980883B1 (en) * 2020-09-30 2021-12-15 株式会社ドワンゴ Assist system, assist method, and assist program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020005819A (en) * 2000-07-10 2002-01-18 김재관 Method for Providing Interactive Tutoring and Learning Services Using Internet
JP2002119679A (en) * 2000-10-13 2002-04-23 Sanyo Product Co Ltd Game machine
JP2002288602A (en) * 2001-03-28 2002-10-04 Nec Corp Interpretation system using id tag
JP2003228272A (en) * 2002-02-06 2003-08-15 Univ Saga Educational material learning system
JP2003337528A (en) * 2002-05-17 2003-11-28 Nec Corp Learning system, learning method, and learning program capable of reflecting learner's learning state
JP2005242018A (en) * 2004-02-26 2005-09-08 Takuto:Kk Individual curriculum creation system, individual curriculum creation method and program
JP2006023506A (en) * 2004-07-07 2006-01-26 Tokai Univ Electronic teaching material learning support device, electronic teaching material learning support system, electronic teaching material learning support method, and electronic learning support program
JP4631014B2 (en) * 2004-07-07 2011-02-16 学校法人東海大学 Electronic teaching material learning support device, electronic teaching material learning support system, electronic teaching material learning support method, and electronic learning support program
JP2006023566A (en) * 2004-07-08 2006-01-26 Matsushita Electric Ind Co Ltd Degree-of-comprehension determining system and method therefor
WO2018207519A1 (en) * 2017-05-12 2018-11-15 パナソニックIpマネジメント株式会社 Behavioral objective achievement support system, information processing method, and program
JPWO2018207519A1 (en) * 2017-05-12 2019-12-12 パナソニックIpマネジメント株式会社 Action goal achievement support system, information processing method and program
JP2019101161A (en) * 2017-11-30 2019-06-24 国立大学法人佐賀大学 Test device, test method and test program
JP6980883B1 (en) * 2020-09-30 2021-12-15 株式会社ドワンゴ Assist system, assist method, and assist program
WO2022070747A1 (en) * 2020-09-30 2022-04-07 株式会社ドワンゴ Assist system, assist method, and assist program

Similar Documents

Publication Publication Date Title
CN101140365B (en) Unevenness inspection method, method for manufacturing display panel, and unevenness inspection apparatus
JP2877405B2 (en) Image update detection method and image update detection device
JPH05265369A (en) Learning device
JP2020080003A (en) Teacher data generation method, teacher data generation program, teacher data generation device, and commercial product identification device
CN105378052A (en) Cell evaluation device, method, and program
JPH07282258A (en) Sign recognition device
CN116109818B (en) Traditional Chinese medicine pulse condition distinguishing system, method and device based on facial video
CN116386394A (en) Electric power training simulation system based on theory and actual operation
JPH06113139A (en) Picture binarization device
JP2961706B2 (en) Severity diagnostic device for disease
US7177482B2 (en) Boundary line detection apparatus and method, and image processing apparatus and method as well as recording medium
JP6980883B1 (en) Assist system, assist method, and assist program
CN112750057A (en) Student learning behavior database establishing, analyzing and processing method based on big data and cloud computing and cloud data platform
JP4674198B2 (en) Abacus recognition device, abacus numerical recognition method, abacus recognition system, abacus numerical recognition program, and computer-readable medium
JP2961705B2 (en) Body sway meter
JPH02242488A (en) Image processor
JPH0561843A (en) Neural network device
Knoll et al. Fast developmental stereo-disparity detectors
JPH0367381A (en) Character recognition device
JPH08272971A (en) Object recognizing method
JP7474546B2 (en) IMAGE ANALYSIS SERVER, OBJECT COUNTING METHOD USING IMAGE ANALYSIS SERVER, AND OBJECT COUNTING SYSTEM
JP3060922B2 (en) Feature generator
JP3173690B2 (en) Visual inspection device by neural network
Alruwais et al. Student Recognition and Activity Monitoring in E-Classes Using Deep Learning in Higher Education
CN117523928A (en) Teaching equipment for improving RANSAC and dynamic fusion video splicing method explanation

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20021008