JP2006293102A - 受講者の自信の有無判定による理解度チェックを伴う教育システム - Google Patents

受講者の自信の有無判定による理解度チェックを伴う教育システム Download PDF

Info

Publication number
JP2006293102A
JP2006293102A JP2005115102A JP2005115102A JP2006293102A JP 2006293102 A JP2006293102 A JP 2006293102A JP 2005115102 A JP2005115102 A JP 2005115102A JP 2005115102 A JP2005115102 A JP 2005115102A JP 2006293102 A JP2006293102 A JP 2006293102A
Authority
JP
Japan
Prior art keywords
student
confidence
education system
sound pressure
cluster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005115102A
Other languages
English (en)
Other versions
JP4682324B2 (ja
Inventor
Kohei Arai
康平 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Saga University NUC
Original Assignee
Saga University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Saga University NUC filed Critical Saga University NUC
Priority to JP2005115102A priority Critical patent/JP4682324B2/ja
Publication of JP2006293102A publication Critical patent/JP2006293102A/ja
Application granted granted Critical
Publication of JP4682324B2 publication Critical patent/JP4682324B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

【課題】 受講者の状態を把握し受講者の理解度を向上させることができるe-Learningシステムを提供する。
【解決手段】 理解度チェックの問題を出題(ミニテスト)した場合に、受講者がその問題について自信を持って答えたかどうかを認識し、自信の無い箇所の分野の練習問題、または、より基礎的な理解をチェックする問題を再び解答させることを行うものである。
【選択図】 図1

Description

本発明は、パソコンやコンピュータネットワークなどを利用して教育を行なう教育システムに関し、特に、受講者の理解を評価する教育システムに関する。
近年、高等教育機関や企業研修などにおいてe-learningの利用が増えている。e-learningの利点は、インターネット環境が整っていれば何処でも講義が受けられるといった点があるが、講師との間のコミュニケーションにおいての問題点も見られる。e-learningの種類には、主にライブ型とオンデマンド型がある。
ライブ型とは、講演や研修内容などを遠隔地にいる受講者にライブ(生放送)で配信するものである。講演会場が遠い場合でも、わざわざ出向くことなく、居ながらにして受講することができる。また、受講者がその場で質問し、講演者にその質問にすぐに答えてもらうことが可能であり、講演者も受講者の反応を見ることが出来るので、受講者とのコミュニケーションが取りやすい。一方、ライブ中継なので特定の時間の制約があり、また、講演者側も内容の編集は一切できない。
オンデマンド型とは、すでに用意されている教材の中から、受講者の要求により、教材を配信する方法である。オンデマンド型では、受講者が都合の良い時間を利用し、学習を進めることができる。講演者側も内容の編集ができるので、講義を解りやすく再編することができる。しかし、受講者は疑問点をその場ですぐに質問して、解説を得ることができないなど、講演者と受講者のコミュニケーションが取りにくいことが問題点として挙げられる。e-lerningシステムの1つの問題として、学習者の理解度チェックが挙げられる。通常の講義や、ライブ型のe-learningならば、講演者が受講者の状態を観察、把握し、講義に反映させるようなことも行えるが、オンデマンド型においてはそのようなことは困難である。もし、受講時における受講者の状態がある程度認識できれば、ライブ型のようなリアルタイムのものでなくとも、受講者の状態に合わせた反応ができ、双方向により近い授業ができる。
特開2003−330935 特開2003−162294
従来のe-Learningシステムは、受講者の自信の有無に関係なく、「多肢選択問題が正解であれば先に進む」ことになっているため、自信が無くても偶然にも正解を選択しさえすれば、より高度な学習ステップに移行してしまい、最後迄理解できずに終了してしまったり、後段になって困惑するなどの問題があった。
本発明は前記問題を解決すべくなされたものであり、受講者の状態を把握し受講者の理解度を向上させることができるe-Learningシステムを提供することを目的とする。
本発明は、理解度チェックの問題を出題(ミニテスト)した場合に、受講者がその問題について自信を持って答えたかどうかを認識し、自信の無い箇所の分野の練習問題、または、より基礎的な理解をチェックする問題を再び解答させるなどのことを行うものである。このように本発明においては、受講者が適切に理解し自信を持った状態での回答か否かを判定し、かかる判定結果に基づいて適切な学習を提供し、受講者に学習内容を十分理解させることができる。このようなシステムは、受講者により進み具合が異なるために、受講者からの要求に応じてコンテンツを配信するオンデマンド型のシステムで利用することが好ましい。自信の度合いとは、受講者の自信の程度のことである。
自信の有無は受講者が発話した音声の音圧及び/又は基本周波数を求めて判断しているので、他の感情を認識する手段と異なり迅速に判断することができる。自信の度合いについても同様である。
また、受講者に出題した問題に対する発話だけでなく、予めエンロール文を発話させて平常時の受講者の音圧及び/又は基本周波数を求め、これとの比較で自信の有無を判断しており、より精度高く判断することができる。自信の度合いについても同様である。
また、受講者が発話した音声の音圧及び/又は基本周波数だけでなく、これをクラスタ分析した後に自信の有無を判断しているので、より精度高く判断することができる。自信の度合いについても同様である。
また、クラスタ分析を使用して自信の有無を判断する場合に、求めたクラスタの重心同士を用いて判断しているので、より精度高く判断することができる。ここで、クラスタ分析を行う場合に、1つのクラスタになるまで演算するのではなく、所定の非類似度に到達した時点で演算を終了し、残った複数のクラスタの中で一番大きなクラスタを選択し、このクラスタの重心を自信の有無の判断に使用することもでき、例外要素を除外して適切な判断を行うことができる。自信の度合いについても同様である。
また、クラスタ分析の複数の手法のうちウォード法を用いることで分類感度を高くして、適切な分析を行うことができる。
また、オンデマンド型のシステムでなく、ライブ型のシステムにおいても、受講者数が多く講師が全体を把握することが困難な場合において、受講者の状態を認識し、どれくらいの人数が関心をもって講義を受けているか、などといったことを計測するような応用例に対して、受講者各人の自信の有無を教員に出力することで、より理解を高めることができる授業を配信することができる。ここで、各受講者の自信の有無を表現した場合には、実際に授業を進行している教員が分かりづらいこともあり、受講者全体の自信の有無を出力する形態にすることもできる。この具体例としては、全体の自信度を数値化で示すことができる。
e-learningシステムは教育システムの一つであり、教育システムとしては他にCBT(Computer Base Training)やCAI(Computer Aided Instruction)等がある。
本発明は多くの異なる形態で実施可能である。したがって、下記の各実施形態の記載内容のみで解釈すべきではない。また、各実施形態の全体を通して同じ要素には同じ符号を付けている。
各実施形態では、主にシステムについて説明するが、所謂当業者であれば明らかな通り、本発明はコンピュータで使用可能なプログラム及び方法としても実施できる。また、本発明は、ハードウェア、ソフトウェア、または、ソフトウェア及びハードウェアの実施形態で実施可能である。プログラムは、ハードディスク、CD−ROM、DVD−ROM、光記憶装置または磁気記憶装置等の任意のコンピュータ可読媒体に記録できる。さらに、プログラムはネットワークを介した他のコンピュータに記録することができる。
(本発明の第1の実施形態)
本発明の第1の実施形態に係るシステムについて、図に基づき説明する。
本実施形態に係るシステムは、e-learning受講時に、解答番号を発声してもらい、その音声を解析し、解答に自信が有る無いかを認識し、もし有るならばそのまま次の問題へ、自信が無ければ自信が無い問題と同じ分野の練習問題を配信する構成である。図1は、このときの処理のフローチャートである。
[感情認識]
音声認識の主な手法として、HMM(Hidden Markov Model)を用いた認識がある。HMMは、音声認識の極だった特徴である、時間的なパターンの伸縮がある時系列(動的)パターンの認識において威力を発揮する。しかし、本発明では、問題番号のような短い単語の認識であり、また、音韻まで判別する必要がないため、時系列パターンに関してはあまり意味が無い。よって、単純に基本周波数、音圧の平均的な値から、自信の有無を認識する手法を用いた。このようにHMMを用いず、基本周波数及び音圧から自信の有無を認識する手法を用いることで、迅速な認識が可能となる。
解答した選択肢番号の発話時の基本周波数と音圧を計測すると、分布は図2となった。pitch(基本周波数)の60あたりに集中している部分に関しては、今回用いた基本周波数計測プログラムでは、設定した最低値以下のものは最低値あたりになる仕様であるため、無視してよいと考える。その他にも、いくつか一つだけ飛び出ているものがあるが、これはノイズと考えられるので、これも無視することとする。pitchが110〜150、power(音圧)が300前後のあたりに分布しているものが、基準となるパラメータであると考えられる。今回、基準であると考えられるパラメータ群を抜き出すために、ローパスフィルタとクラスター分析を用いた。ローパスフィルタは、基本周波数の最低値付近のものを除くために用いた。ノイズ部分を除去する方法としては、他の方法としてバンドパスフィルタが考えられるが、パラメータの値の基準は個人差があるため、バンドパスフィルタでは対応できないと考えられ、クラスター分析を用いた。こうして得られたパラメータ群の重心から、感情を認識する。自信の有る声、無い声、平常状態の声をそれぞれ計測した結果、基本周波数、音圧共に、自信の有るときは平常状態よりも高く、自信の無いときは平常状態よりも低い傾向が見られた。基本周波数、音圧の状態ごとの分布は図3のようになった。
以上の結果から、本発明では図4のように、平常状態の値と、解析値の間の角度を求め、角度が閾値以内ならば自信ありと判断して判断結果を出力し、閾値以内でなければ自信無しと判断して判断結果を出力する。
[アルゴリズム]
感情認識処理のアルゴリズムを以下に示す。
1.得られた音声データに対し以下の処理をする。
(a)基本周波数を計測する。
(b)音圧を計測する。
2.得られたパラメータから基本周波数成分の低い部分を切り取る。
3.パラメータに対しクラスター分析を行う。
4.最も大きいクラスタの重心を求める。
5.求めた重心と標準値のクラスターの重心との角度を求める。
6.角度が閾値以内ならば自信有り。そうでなければ自信無しの結果を出力する。
上記各処理の中には、様々周知技術として存在するものがあり、当業者は適宜種々の周知技術を採ることができる。例えば、音圧を計測する方法は多種の方法が提案されている。また、一部の周波数成分をカットするフィルターに関しても多種の方法が提案されている。
[オーバーラップ分析]
今回、基本周波数、音圧を計測するにあたって、オーバーラップ分析を行った。オーバーラップ分析は、音声認識処理で一般的に用いられている手法である。音声認識処理では、音声信号から一定長のフレームを切り出して分析する。音声信号は非定常信号であるが、100分の1秒程度の短時間区間ではいちおう定常的であると考えることができるので、分析フレームを5msないし10ms程度ずつずらし、オーバーラップさせながら分析を行う。図5には分析フレームを一部重複させながら移動する形のオーバーラップ分析の説明図を示す。
[基本周波数]
人の声には(厳密には、ここでは声帯の振動を音源として生ずる有声音)ほぼ相似的な
波の繰り返しのパターンがみられる。この繰り返しの周波数を一般に基本周波数と呼ぶ。基本周波数は、聴覚の上では、音の高さ、すなわち、いわゆるピッチに対応し、また基本周波数の緩やかな変化は、いわゆる抑揚となっている。したがって、基本周波数、ピッチの違いは、男女声の音色を区別したり、あるいは個人個人の音色の違いや、声の高さを聞き分けたりするために利用できる。自信の有無を認識するにあたり、本発明では、基本周波数を求める方法として、波形データの自己相関関数のピークを求める方法を用いた。自己相関関数は音声データ(xt|t=0,1,・・・,N-1)について、式1に定義される。
Figure 2006293102
求められた自己相関関数で値がプラスのピーク値の時、xtとxt+lに同符号の事が多い事を示す。よって、このlだけずれた値が元と似た波であり、これが周波数成分に近い意味合いを持つといえる。図6が音声“あ”の波形、図7が自己相関関数のグラフである。この場合、図7の250あたりに第一ピークが来ている。
[音圧]
感情を認識するにあたって、声の大きさは重要な特徴の一つである。感情を高ぶらせたときは大きな声、沈んでいるときは小さな声など、比較的表出しやすい特徴である。一般的に音圧として使われている単位はdB(デシベル)であるが、これは音圧ではなく音圧レベルの単位である。音圧と音圧レベルの間は、以下の式2の関係がある。
Figure 2006293102
SPL;音圧レベル(dB)SPL;Sound Pressure Levelの略
P1;その音の音圧(Pa(パスカル) ; N/m2)
P0;基準音圧(=2×10-5N/m2)
P0はというのは人間が聞くことの出来る最小の音圧である。P1は、音声波形の振幅を自乗し、加算し、平均を求め、その平方根で表す。
Figure 2006293102
P;音圧
xi;音声波形配列
一般的に、音圧は桁数が大きくなりすぎるので、音圧レベルが用いられている。今回、自信の有無を認識するための音声では、それほど音圧の桁数は大きくならないため、音圧レベルを用いず、そのまま音圧を用いることとした。
[クラスター分析]
クラスター分析とは、人や物など多数の対象について、互いに似ているものをまとめて、集落(クラスター)をつくり、対象を分類しようという方法を総称したものである。似ている対象を順次融合しながら、まとまりの強さ(稠密度)を見て、クラスターを決定する階層的な方法と、仮のクラスターを前もって入力して、所属するメンバーを探したり、初期クラスターではカバーできない新しいクラスターを作ったりする非階層的な方法がある。
次に、本発明で用いた階層的クラスター分析について解説する。
[クラスター分析:階層的クラスター分析]
いま個の対象(個体でも変量でもよい)O1,O2,・・・,Onがあり、対象とOiとOjの間の類似の度合を表わす数値dij(1,2,・・・,n)が得られているとする。ただし、dijは対称的(dij=dji)であるとする。クラスター分析を行う場合には、解析に用いるデータを正規化する場合としない場合では結果がかなり異なることがある。解析に使用する変数が異なった単位で表されているときには、正規化した方がよいかもしれない。しかし、ある変数が決定的な性質を持つ場合には、正規化することは他の変数と同格に取り扱ってしまうことになるので正規化しない方がよいかもしれない。今回の発明では、解析に用いるデータの単位が違うので、平均0、分散1の正規化を行った。
これは、正規化前の値をx1,x2,・・・,xn、正規化後の値をz1,z2,・・・,zn、母平均をμ、母分散をσ2とすると、式4のようになる。
Figure 2006293102
次に、類似の度合を表わす指標として、距離のように値の小さい方が類似性が高いことを表わす場合と、相関係数のように値の大きい方が類似性が高いことを表わす場合がある。両者を総称して類似度と呼ぶこともあるが、ここでは前者の指標を非類似度(dissimilarity)、後者の指標を類似度(similarity)と呼んで区別しておく。以下では、簡単のため、dijは非類似度を表わし、値が小さいほど類似性が高いことを表わすものとする。階層的クラスター分析法は、このような対象間の非類似度dijを手がかりにして、樹形図あるいはデンドログラム(dendrogram)と呼ばれる樹状の分類構造(図8)を構成することを目標とする分析法である。その樹形図を適当な断面で切ることにより、1〜n個の任意個数のクラスターを得ることができる。このとき、枝の先端に近いところで切断してできる、少数の構成単位からなるクラスターは、その枝のついている、より大きい枝の根もとのところで切断してできる、多数の構成単位からなるクラスターに、そのまま含まれる。すなわち、樹形図のいろいろな断面で切ってできるクラスターは小分類-中分類-・・・-大分類という階層的構造をもっている。
階層的クラスター分析のプロセスは、一般に次のようなステップで構成される。
1.1つずつの対象を構成単位とするn個のクラスターから出発する。
2.クラスター間の非類似度行列(dij)を参照して、もっとも類似性の高い2つのクラスターを融合して、1つのクラスターをつくる。
3.クラスター数が1になっていれば終了し、そうでなければ次のステップにすすむ。
3.前記2.で新しくつくられたクラスターと、他のクラスターとの非類似度を計算して、非類似度行列(dij)を更新し、前記2.に戻る。
ここで、非類似度行列(dij)を更新する場合、dijを計算するもとになっているデータに戻らなくても、更新前の非類似度行列から次々に計算できる方法がある。それらは組合わせ的方法と呼ばれ、計算が比較的容易なこともあって、広く用いられている。組み合わせ法は、以下の手順で行われる。
nの個体について、m個の変数xi1,xi2,・・・,xim(i=1,2,・・・,n)があるとする。初期状態として、n個のクラスターがあるとする(各クラスターは1個体ずつを含むと考える)。
第1段階
クラスター間のユークリッド平方距離dij2を計算する。
Figure 2006293102
第2段階
ユークリッド平方距離の最も近いクラスターを併合して、1つのクラスターとする。クラスターaとクラスターbが併合されてクラスターcが作られるとする。dab、dxa、dxbを、クラスターaとクラスターbが併合される前の各クラスター間の距離としたとき、併合後のクラスターcとクラスターx(x≠a,x≠b)との距離は式6、式7で表される。
Figure 2006293102
Figure 2006293102
αa、αb、β、γは表1に示すような定数である。naは、クラスターaに含まれる個体数(データの個数)である。nb、nc、nxも同様である。β*は1未満の任意の値である。
Figure 2006293102
第3段階
2個のクラスターが1個のクラスターにまとめられたので,総クラスター数が1個減る。クラスター数が1になるまで第2段階を繰返す。
一般的には、ウォード法でクラスター分析は行なわる。重心法、メディアン法、ウォード法はユークリッド平方距離で行なうことを前提としている。各手法の分類感度は、クラスターの融合によって空間が拡散される場合に高く、濃縮される場合に低くなる。各手法の特徴を表2に示す。
Figure 2006293102
[クラスター分析:ウォード法(Ward method)]
nの個体について、m個の変数xi1,xi2,・・・,xim(i=1,2,・・・,n)が得られているときに、個体間の非類似度を表わす量として、ユークリッド平方距離を用いると、個体iとjとの非類似度dijは、以下の式8により定義される。
Figure 2006293102
クラスター、(p)に含まれるi番目の対象を考え、その変量xiに関する観測値をxji (p)と表わせば、クラスター(p)内の偏差平方和の合計は、式9と表される。
Figure 2006293102
いま、クラスター(p)と(q)を融合してクラスター(t)をつくる。このとき、クラスター内の平方和の合計の増分をΔSpqとおけば、式10となる。
Figure 2006293102
ウォード法では、クラスター内平方和ができるだけ小さいことを望ましいと考え、各段階でクラスターの融合による平方和の増分ΔSpqが、もっとも小さい(p)と(q)を融合しようとする。そのため、クラスター(p)と(q)の非類似度dpqとしてΔSpqを用いる。2つのクラスター(p),(q)を融合してつくられたクラスター(t)と、別のクラスター(r)を融合するときの平方和の増分ΔStrは、式11と表わされる。
Figure 2006293102
したがって、非類似度の更新の式は次の式12のようになる。
Figure 2006293102
すべてのクラスターが1つずつの対象からなる場合を考えると、もとの対象間の非類似度としては、ユークリッド平方距離の1/2を用いればよいことがわかる。
[感情認識プログラム]
本発明で作成した感情認識プログラムについて解説する。このプログラムでは、LINE入力部分に、坂野秀樹氏作成の、Cで書かれたマルチプラットホーム対応の音声信号処理用ライブラリ、spLibsを使用させて頂いた。プログラムのフローチャートを図9に示す。
[感情認識プログラム:設定]
本プログラムは、設定ファイル”AudioConfig.ini”内に設定を記述している。プログラム起動時に、このファイルを読み込み、解析を行う。ファイル内の記述の解説を以下に示す。
・voice#vol#min:LINE INから入力されたバイナリの平均振幅がこの値以上のとき、プログラムはバイナリを音声と認識する。小さすぎると、ブレスなどのノイズを拾いやすくなり、大きすぎると、認識感度が悪くなる。
・samp#rate:音声入力に使用するサンプリング周波数。単位はHz。
・buffer#size:音声入力に使用するバッファーのサイズ。この値が短すぎると音飛びが起こり、長すぎると遅延が発生する。通常は8192程度以上を推奨。
・samp#bit:音声入力に使用するbits/sampleの値。16bit、24bit、32bitがサポートされている。
・data#length:音声解析時のフレーム長。
・silent#space:音声認識部で許容する無声時間の長さ。音韻の間に無声時間が発生することがあるので、ある程度の値を設定していないと、単語の途中で音声認識が打ち切られる場合がある。大きすぎると、音声データの無声部分が長くなり、認識に影響する可能性がある。
・bin#buf#size:感情認識部で使用される音声バイナリのバッファーサイズ。この値が小さいと、データがオーバーフローを起こす可能性がある。
・frame#rate:オーバーラップ分析時のフレーム周期。必ず1以上の値を入れること。
・pitch#max:音声解析時の最大基本周波数。
・pitch#min:音声解析時の最小基本周波数。
・power#max:音声解析時の最大音圧。
・power#min:音声解析時の最小音圧。
・pitch#weight:音声解析時の基本周波数への重み。
・power#weight:音声解析時の音圧への重み。
・pitch#lowpass:音声解析時の基本周波数へのローパスフィルタの設定。pitch#minに、この値を乗じたものが、ローパスフィルタの値となる。
・cluster#threshold#r:正規化を行った場合の、クラスター分析に用いる閾値。
・cluster#threshold#nr:正規化を行わなかった場合の、クラスター分析に用いる閾値。0〜1の範囲に設定する。
・max#angle:感情解析時の最大角度。この値と、下のmin#angleの間が、自信有りの場合の認識範囲となる。
・min#angle:感情解析時の最小角度。この値と、上のmax#angleの間が、自信有りの場合の認識範囲となる。
・standard#data#x:感情解析時における、基本周波数の基準値。最大のクラスタと同じ大きさのクラスタがあった場合、この値と下のstandard#data#yに近いクラスタを選ぶ。
・standard#data#y:感情解析時における、音圧の基準値。最大のクラスタと同じ大きさのクラスタがあった場合、この値と上のstandard#data#xに近いクラスタを選ぶ。
・reg#flag:クラスター分析時に正規化を行うかどうかのフラグ。(0:正規化しない,1:正規化を行う)
(e-Learningシステム全体)
以上は、本発明の本質部分であるe-Learningシステム全体中自信を評価する部分についてのみ詳述した。以下、実際e-Learningシステムに組み入れた場合について説明する。図10は本実施形態に係るe-Learningシステムのブロック構成図である。しかしながら、この組み入れはシステムの一例に過ぎず、他のシステム構成に対しても適用することができる。
アクターは、コンテンツを作成するコンテンツ作成者、コンテンツを管理するコンテンツ管理者、システムを運用するシステム管理者、教員及び受講者である。
コンテンツ作成者は、オーサリングツール10を用いて文字や画像、音声、動画といったデータを編集してコンテンツを作成する。常に、新規なコンテンツを始めから作成するだけでなく、既存のコンテンツを利用してコンテンツを作成する。
コンテンツ管理者は、コンテンツ登録の手段20よりコンテンツ作成者が作成したコンテンツを学習コンテンツのデータベース30に登録し、コンテンツ配信の手段40により要求のあったコンテンツを配信可能とする。
受講者の個人情報(氏名、住所、性別、年齢など)、学習目的、背景知識等の情報が利用者のデータベース(図示しない)に格納されている。利用者管理の手段50は、この利用者のデータベースを管理しており、アクターから問い合わせに対して、利用者のデータベースから情報を読み出したり、逆に、情報を書き込んだりする。
学習コース管理の手段60は、受講者に対してコンテンツをコースとして提示し、受講者の要求をコンテンツ配信の手段40に対し要求する。コンテンツ配信の手段40は、かかる要求に対応するコンテンツを配信する。
受講者に対するコンテンツの配信は、履歴情報として利用者履歴管理の手段70により管理され、行動履歴のデータベース(図示しない)に格納されている。利用者履歴管理の手段70は、この行動履歴のデータベースを管理しており、アクターから問い合わせに対して、行動履歴のデータベースから情報を読み出したり、逆に、情報を書き込んだりする。
コンテンツは、テキスト、静止画、動画、音楽及び音声等からなる。前記出題される問題もコンテンツの一種である。
ハードウェアの構成として一例を説明すれば、コンテンツ作成者が使用するコンピュータがありこのコンピュータにオーサリングツール10の装置が構築され、コンテンツ管理者が管理する一又は複数のコンピュータがありこのコンピュータにコンテンツ登録の手段20、学習コンテンツのデータベース30及びコンテンツ配信の手段40が構築され、システム管理者が管理する一又は複数のコンピュータがありこのコンピュータに学習コース管理の手段60、利用者管理の手段50及び利用者履歴管理の手段70が構築されている構成である。各アクターが、自己がアクセスできるアクターに対してはGUIを通してアクセスすることができる。例えば、受講者はWebブラウザを通して学習コース管理の手段60、利用者管理の手段50、利用者履歴管理の手段70にアクセスし、Webブラウザ又はプラグインソフトが認識可能なデータ形式でコンテンツの提供を受けることができる。ここでは、WWWシステムを用いた構成とした、WWWシステムを用いない構成であってもよいし、学習コース管理の手段60、利用者管理の手段50、利用者履歴管理の手段70を受講者のコンピュータ上に構築してもよい。
このシステム構成においては、学習コース管理の手段が、一のコースとして、例えばテキスト及び動画からなるコンテンツを配信しながら、所定のタイミングで問題のコンテンツを配信し、問題を受講者に出題し、「回答を発話して下さい」の旨のメッセージを受講者の使用するコンピュータのディスプレイに表示する。受講者は使用するコンピュータのマイクロフォンに対して発話にて問題の回答を行う。学習コース管理の手段60は、受講者が発話した音声から音圧及び/又は基本周波数を演算して自信の有無を判断する(この部分については既に上記したので詳細は省略する。すなわち、受講者に問題を出題して発話による回答を促す手段と、受講者が発話した音声から音圧及び基本周波数を演算する手段、演算した音圧及び基本周波数に基づいて受講者の自信の有無又は自信の度合いを求める手段とを、学習コース管理の手段60内のモジュールとして実装している。実装方法は、当業者で明らかであるように、複数の実装方法を適用することができ、例示の実装方法に限定されない。たとえば、前記各手段を学習コース管理の手段60内のモジュールではなく、学習コース管理の手段60と同等のコンポーネントとして実装することができる。図9参照)。学習コース管理の手段60が、自信があると判断し、回答が正解である場合には、次の問題を配信する。自信がないと判断した場合(正解及び不正解)、並びに、自信があって回答が不正解である場合には、先ほど出題した問題の回答を表示した後に、先ほど出題した問題の類似問題を配信する。以降は、同様に配信が前記一のコースが完了するか、受講者が受講を停止するまでなされる。ここで、類似問題に対しても同様に自信の有無の判断を行い、自信があって回答が正解している場合以外に、さらに、問題を出題する構成にすることもでき、以降も同様な動作をさせることができる。
なお、エンロールは、本e-learningを利用する初回に一回のみ行ってもよいが、毎回受講する度にエンロールを行うことが望ましい。これにより、受講時の受講者の体調、マイクの方向等により変化する音声に対応して適切にエンロールがなされ、自信の判断の精度に大きく影響を与えるからである。
(その他の実施形態)
前記第1の実施形態においては、角度が閾値以内ならば自信有りの結果を出力し、そうでなければ自信無しの結果を出力するとしたが、閾値を例えば−20度から80度までとする場合に、30度を100%とし、−20度及び80度を0%とすることができ、自信有りとされた場合にどの程度の自信があるのかを数値として出力することができる。数値ではなく数値に基づきグラフ等のビジュアル化をすることもできる。
前記第1の実施形態においては、オンデマンド型のe-Learningシステムを説示したが、ライブ型のe-Learningシステムの場合にはコンテンツには図10のシステム構成に加え、教員を撮像するビデオカメラが必要となり、教員を撮像した動画と教員の音声とがリアルタイムで受講者に配信される構成となり、このライブのe-Learningシステムであっても、問題を出題する場合には、同様に音声により自信の有無を判断してサービスを受講者に提供することができる。ここで、ライブ型のe-Learningシステムには、問題を教員の全ての説明が終わった後に各受講者が行う場合には、このような構成でよいが、教員の説明と教員の説明との間に問題を出題する時間が用意されている場合には、かかる時間は所定の時間とされている場合があり、この場合には教員の説明が再開された場合に問題の解答を途中で中断する構成にすることもでき、解答途中の問題は最後に解答するようにすることもできる。また、類似問題のような追加問題は教員の説明が全て終了した後に出題する構成にすることもできる。
前記ライブ型のe-Learningシステムの場合には、教員の説明と教員の説明との間に問題を出題する場合において、また、教員が受講者に質問をした場合において、受講者の音声に回答により各受講者の自信の有無を判断し、教員に対して判断結果を出力する構成にすることもでき、教員が各受講者の理解度を把握し、より適切な授業を受講者に提供することができる。例えば、数学のある公式を説明した後に、問題を解かせ略全員の受講者が自信がある場合には次の公式の説明に進み、受講者の略全員が不正解若しくは自信の無い回答である場合には公式の説明をより詳細に行うことで受講者全体の理解を促進する。ここで、少数の受講者が理解していないと判断した場合には、授業後に個別に説明することが望ましい。
前記第1の実施形態においては、角度が閾値以内ならば自信有りで、そうでなければ自信無しの結果を出力する構成としたが、このような角度だけに限定されるものではなく、クラスター分析を行ってどのクラスターに属するか、または、どのクラスターの近くに存在するかにより自信の有無を判断する構成であってもよい。同様に、図3のように領域分けを行ってどの領域にクラスターの重心が属するかで自信の有無を判断することもできる(平常時を自信有りに属させるか、自信無しに属させるかは設定可能とする)。また、より高度には、前記閾値等はパラメータ化して教員が調整可能にすることができ、受講者に合わせて適切な自信の有無を判断することができる。各受講者にパラメータを設定することで、より適切な学習サービスを提供することができる。
[手法]
ここでの実施例は、第1の実施形態の図1及び図9のフローに基づく実験を行った。すなわち、図1のように問題を出題し、自信の有無を図9のフローのように求め、それにより図1のように自信があって正解の場合には次の問題へ進み、自信がない場合及び不正解の場合には練習問題を経て次の問題に進む構成とした。すなわち、ここでは、e-Learningシステム全体を利用して複数のコンテンツからなる一連のコースを配信したのではなく、問題の出題にのみに特化して音声による自信の有無を判断して演習方法を変更することによる学習の理解度を確認することで、本発明の効果を検証した。
今回の実験では、まず被験者にエンロールとして名前を言ってもらい、その音声データから解析した結果を平常時のデータとして用いる。次に、用意した問題を解答してもらい、その際に解答である選択肢の番号を発声してもらう。解答時の音声から自信の有無を認識し、自信がないと判別されたときは、自信のない問題の類題を練習してもらう。その後、習熟度の確認のためのテストを行う。習熟度の確認テストには、前に解いた問題と同じ分野の、難易度が上のものを使用した。それとは別に、自信がなくとも練習問題をしなかった場合の習熟度も調べ、今回の手法が学習の習熟に効果があるかどうかを確認する。実験に使用した問題は、SPI(synthetic personality inventory)の言語系問題を3問、非言語系問題を3問、高校物理の基本問題から4問、計10問出題した。また、練習問題はそれぞれの類題を3問用意した。実験時のオーディオ設定を表3に示す。
Figure 2006293102
[結果]
実験を行った結果を以下に示す。
Figure 2006293102
Figure 2006293102
Figure 2006293102
Figure 2006293102
[考察]
練習無しの場合と、有りの場合(本発明を適用した場合)とでは、確認テストでの正答率の伸びに大きな差が出た。練習無しのとき、確認テストで得点が下がったのは、難易度が上がったためである。また、練習有りのときの確認テストの解答時間が短いのは、練習をすることにより、問題解答の効率が良くなったためである。得点の伸び率が言語系に比べ、非言語系、物理問題のほうが高かったのは、言語系問題は、類題でも知識が無ければ解けないことに対して、非言語系や物理問題は、類題に対して、同じような考え方で解けるためである。認識率があまり良くなかった原因として、平常状態の設定が正確でなかったということ一の原因である。実際、認識率が良い人は、8〜10割と、高い値を出しているが、悪い人は6割程度であった。そこで、認識率が悪かった人に対し、その人の適正と予想される平常状態を設定し、再認識を行ったところ、次の認識率が得られた。
Figure 2006293102
以上のように、平常状態の設定が適正になされていれば、おおむね8割以上の認識率を出すことが出来るとわかった。
本発明の第1の実施形態に係るシステムのフローチャートである。 本発明の第1の実施形態に係る音圧を縦軸、基本周波数を横軸とした散布図である。 本発明の第1の実施形態に係る音圧を縦軸、基本周波数を横軸とした分布図である。 本発明の第1の実施形態に係る音圧を縦軸、基本周波数を横軸とした解析の説明図である。 本発明の第1の実施形態に係るオーバーラップ分析の説明図である。 本発明の第1の実施形態に係る振幅を縦軸、時間を横軸とした音声波形の図である。 本発明の第1の実施形態に係る振幅を縦軸、時間を横軸とした自己相関関数の図である。 本発明の第1の実施形態に係るデンドログラムの説明図である。 本発明の第1の実施形態に係るシステムのフローチャートである。 本発明の第1の実施形態に係るe-Learningシステムのブロック構成図である。
符号の説明
10 オーサリングツール
20 コンテンツ登録の手段
30 学習コンテンツのデータベース
40 コンテンツ配信の手段
50 利用者管理の手段
60 学習コース管理の手段
70 利用者履歴管理の手段

Claims (9)

  1. 受講者に問題を出題して発話による回答を促す手段と、受講者が発話した音声から音圧及び/又は基本周波数を演算する手段、演算した音圧及び/又は基本周波数に基づいて受講者の自信の有無又は自信の度合いを求める手段とを備える
    教育システム。
  2. 予め受講者にエンロール文を提示してエンロール文を発話するように促す手段を備え、
    受講者が発話した音声から音圧及び/又は基本周波数を演算して基準値とし、この基準値との比較により受講者の自信の有無又は自信の度合いを求める
    前記請求項1に記載の教育システム。
  3. 演算した複数の音圧及び/又は基本周波数に対してクラスタ分析を行って受講者の自信の有無又は自信の度合いを求める
    前記請求項1に記載の教育システム。
  4. 基準値に対してクラスタ分析を行って生成されたクラスタの重心と、受講者が発話した音声から演算された複数の音圧及び/又は基本周波数に対してクラスタ分析を行って生成されたクラスタの重心との比較から受講者の自信の有無又は自信の度合いを求める
    前記請求項2に記載の教育システム。
  5. 前記クラスタ分析がウォード法である
    前記請求項3または4に記載の教育システム。
  6. 出題された問題に対し受講者が発話した音声から自信が無い又は自信度が所定値以下と求めた場合には、回答が正解であっても出題された問題の類似問題を出題する手段を備える
    前記請求項1ないし5のいずれかに記載の教育システム。
  7. 受講者からの要求に応じてコンテンツを配信するオンデマンド型である
    前記請求項6に記載の教育システム。
  8. 各受講者の自信の有無又は自信の度合いを教員にリアルタイムに出力する手段を備える
    前記請求項1ないし5のいずれかに記載の受講者にリアルタイムにコンテンツを配信するライブ型教育システム。
  9. 一又は複数のCPUが、受講者に問題を出題して発話による回答を促すステップと、受講者が発話した音声から音圧及び/又は基本周波数を演算するステップと、演算した音圧及び/又は基本周波数に基づいて受講者の自信の有無又は自信の度合いを求めるステップとを含む教育システムに適用する方法。

JP2005115102A 2005-04-12 2005-04-12 受講者の自信の有無判定による理解度チェックを伴う教育システム Active JP4682324B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005115102A JP4682324B2 (ja) 2005-04-12 2005-04-12 受講者の自信の有無判定による理解度チェックを伴う教育システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005115102A JP4682324B2 (ja) 2005-04-12 2005-04-12 受講者の自信の有無判定による理解度チェックを伴う教育システム

Publications (2)

Publication Number Publication Date
JP2006293102A true JP2006293102A (ja) 2006-10-26
JP4682324B2 JP4682324B2 (ja) 2011-05-11

Family

ID=37413739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005115102A Active JP4682324B2 (ja) 2005-04-12 2005-04-12 受講者の自信の有無判定による理解度チェックを伴う教育システム

Country Status (1)

Country Link
JP (1) JP4682324B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100922585B1 (ko) 2007-09-21 2009-10-21 한국전자통신연구원 실시간 e러닝 서비스를 위한 입체 음향 구현 방법 및 그시스템
JP2016110074A (ja) * 2014-11-28 2016-06-20 株式会社サイトビジット Eラーニングシステム
JP2021113926A (ja) * 2020-01-20 2021-08-05 株式会社フォーサイト 学習支援システムおよび学習支援方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0512023A (ja) * 1991-07-04 1993-01-22 Omron Corp 感情認識装置
JPH05188849A (ja) * 1992-01-10 1993-07-30 Brother Ind Ltd 電子学習機
JPH07210387A (ja) * 1994-01-20 1995-08-11 Fujitsu Ltd プロダクションシステム
JPH08297496A (ja) * 1995-04-26 1996-11-12 Fujitsu Ltd 音声特徴分析装置
JP2003187004A (ja) * 2001-12-13 2003-07-04 Aruze Corp 教育情報提供サーバ、及び同サーバに利用されるプログラム記憶媒体、並びに同サーバを利用した教育情報提供システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0512023A (ja) * 1991-07-04 1993-01-22 Omron Corp 感情認識装置
JPH05188849A (ja) * 1992-01-10 1993-07-30 Brother Ind Ltd 電子学習機
JPH07210387A (ja) * 1994-01-20 1995-08-11 Fujitsu Ltd プロダクションシステム
JPH08297496A (ja) * 1995-04-26 1996-11-12 Fujitsu Ltd 音声特徴分析装置
JP2003187004A (ja) * 2001-12-13 2003-07-04 Aruze Corp 教育情報提供サーバ、及び同サーバに利用されるプログラム記憶媒体、並びに同サーバを利用した教育情報提供システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
今井 聖, 音声信号処理 音声の性質と聴覚の特性を考慮した信号処理, vol. 第1版第1刷, JPN6010030604, 30 November 1996 (1996-11-30), pages 17 - 18, ISSN: 0001633412 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100922585B1 (ko) 2007-09-21 2009-10-21 한국전자통신연구원 실시간 e러닝 서비스를 위한 입체 음향 구현 방법 및 그시스템
JP2016110074A (ja) * 2014-11-28 2016-06-20 株式会社サイトビジット Eラーニングシステム
JP2016177306A (ja) * 2014-11-28 2016-10-06 株式会社サイトビジット Eラーニングシステム
JP2021113926A (ja) * 2020-01-20 2021-08-05 株式会社フォーサイト 学習支援システムおよび学習支援方法

Also Published As

Publication number Publication date
JP4682324B2 (ja) 2011-05-11

Similar Documents

Publication Publication Date Title
Hagen et al. Children's speech recognition with application to interactive books and tutors
JP7540080B2 (ja) 声変換および音声認識モデルを使用した合成データ拡大
US8972259B2 (en) System and method for teaching non-lexical speech effects
McKechnie et al. Automated speech analysis tools for children’s speech production: A systematic literature review
Bragg et al. A large inclusive study of human listening rates
Daniels et al. The suitability of cloud-based speech recognition engines for language learning.
JP2002040926A (ja) インターネット上での自動発音比較方法を用いた外国語発音学習及び口頭テスト方法
Athanaselis et al. Making assistive reading tools user friendly: A new platform for Greek dyslexic students empowered by automatic speech recognition
Yin et al. Automatic cognitive load detection from speech features
Ahsiah et al. Tajweed checking system to support recitation
KR102355960B1 (ko) 자격조건검증 기반 한국어 교육 서비스 제공 시스템
JP4682324B2 (ja) 受講者の自信の有無判定による理解度チェックを伴う教育システム
Alapetite Impact of noise and other factors on speech recognition in anaesthesia
JP2003228279A (ja) 音声認識を用いた語学学習装置、語学学習方法及びその格納媒体
Bragg et al. Expanding a large inclusive study of human listening rates
KR20180052952A (ko) 음성인식기반 의사소통훈련 서비스장치 및 시스템
Shen et al. Solfeggio Teaching Method Based on MIDI Technology in the Background of Digital Music Teaching
Marcoux et al. Acoustic characteristics of non-native Lombard speech in the DELNN corpus
Zheng [Retracted] An Analysis and Research on Chinese College Students’ Psychological Barriers in Oral English Output from a Cross‐Cultural Perspective
Fletcher et al. Comparing lexical cues in listener processing of dysarthria and speech in noise
Xu et al. Application of Multimodal NLP Instruction Combined with Speech Recognition in Oral English Practice
Bohac et al. A cross-lingual adaptation approach for rapid development of speech recognizers for learning disabled users
Jaddoh et al. Non-verbal interaction with virtual home assistants for people with dysarthria
Kawase et al. Visualization of pronunciation diversity of world Englishes from a speaker's self-centered viewpoint
He Design of a Speaking Training System for English Speech Education using Speech Recognition Technology

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150