JP6396813B2 - 学習映像からその学習に費やされた学習項目を推定するプログラム、装置及び方法 - Google Patents

学習映像からその学習に費やされた学習項目を推定するプログラム、装置及び方法 Download PDF

Info

Publication number
JP6396813B2
JP6396813B2 JP2015013579A JP2015013579A JP6396813B2 JP 6396813 B2 JP6396813 B2 JP 6396813B2 JP 2015013579 A JP2015013579 A JP 2015013579A JP 2015013579 A JP2015013579 A JP 2015013579A JP 6396813 B2 JP6396813 B2 JP 6396813B2
Authority
JP
Japan
Prior art keywords
learning
learning item
item
video
items
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015013579A
Other languages
English (en)
Other versions
JP2016138995A (ja
Inventor
河合 直樹
直樹 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2015013579A priority Critical patent/JP6396813B2/ja
Publication of JP2016138995A publication Critical patent/JP2016138995A/ja
Application granted granted Critical
Publication of JP6396813B2 publication Critical patent/JP6396813B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、教育分野における学習状況を解析する技術に関する。
従来、学習の進捗や理解度などの学習状況の測定には、試験の成績データが用いられている。しかし、試験は、その実施に時間及びコストがかかるだけでなく、生徒の課題ややる気などの状況を詳細に把握することはできない。そのために、家庭教師による個別授業では、教師が、学習状況の記録として、その授業後に報告書を記載している。
これらの試験の成績データや学習状況の報告書は、生徒の保護者との面談や、今後の授業方針の決定に用いられている。しかし、学習状況の報告書は、個々の教師によって、その執筆内容や記載量に差がある。また、学習状況の報告書は、試験の成績データに比べて、客観的な資料として用いることが困難であった。
従来、学習支援に有用な指標を簡便に取得して、学習状況を把握する技術がある(例えば特許文献1参照)。この技術によれば、学習者が学習コンテンツを利用中に、その学習者端末に対する入力操作と時刻とを対応付けた操作履歴情報を取得し、当該学習コンテンツに対する受容性を推定している。即ち、既知の学習項目に対してのみ、その学習者の受容性を推定することができる。
また、学習者の心理・精神状態をモニタして心理状態を推定し、それによって現在の心理状態に対応した電子教材を提供する技術がある(例えば特許文献2参照)。この技術によれば、学習者の表情の変化が映る画像データを解析すると共に、学習者の心拍数や皮膚温度などの身体情報の変化を検出して、学習者の心理状態にふさわしい教材を、その学習者に提供することができる。
尚、カメラ画像から得られる学習者の表情や、顔の傾き、頭部姿勢から、課題に対する主観的難易度を推定する技術もある(例えば非特許文献1参照)。また、学習者の電子ペンの筆圧や筆記速度、筆記間隔データを用いて、時系列でつまずき箇所を検出する技術もある(例えば非特許文献2参照)。
特開2013−242433号公報 特開2006−023506号公報
中村和晃ら、「e-learningにおける学習者の顔動作観測に基づく主観的難易度の推定」、電子情報通信学会論文誌、J93-D(5) pp568-578 May2010、[online]、[平成27年1月21日検索]、インターネット<URL:http://search.ieice.org/bin/summary.php?id=j93-d_5_568> 浅井洋樹ら、「筆記情報と時系列モデルを用いた学習者つまずき検出」、電子情報通信学会信学技報 ET201249(2012‐10)、[online]、[平成27年1月21日検索]、インターネット<URL:http://jglobal.jst.go.jp/detail.php?from=API&JGLOBAL_ID=201202238110684464> 浅野秀胤ら、「フーリエ変換を用いた小さな手振りの検出」、PIONEER R&D (Vol.20, No.1/2011)、[online]、[平成27年1月21日検索]、インターネット<http://pioneer.jp/corp/crdl_design/crdl/rd/pdf/20-1-3.pdf>
特許文献1に記載の技術によれば、学習項目を既知としないような学習状況から、その学習者の受容性を推定することはできない。
特許文献2に記載の技術によれば、学習者の身体に各種センサ等を装着する必要がある。
非特許文献1に記載の技術によれば、学習者に負担の無いカメラ画像を用いているが、学習内容を取得することまではできない。
非特許文献2に記載の技術によれば、記述式の課題でなければ授業データを取得できない。また、電子ペンを用いるために既定の用紙範囲内でなければ筆記状態を習得できず、机上に置かれる複数の問題集や学習資料を使用することはできない。
これに対し、本願の発明者らは、個別授業について、学習項目が既知でなくても、教師や学習者の負担なく、学習者に応じた学習状況を推定することができないか?と考えた。即ち、教師が重点的に指導した学習項目や、学習者が理解できていない学習項目を推定することができないか?と考えた。
そこで、本発明は、学習映像からその学習に費やされた学習項目を推定することができるプログラム、装置及び方法を提供することを目的とする。
本発明によれば、学習資料をカメラによって撮影した学習映像から、その学習に費やされた学習項目を推定するようにコンピュータを機能させる学習状況推定プログラムであって、
複数の学習項目を予め登録した学習項目辞書手段と、
学習映像から、画像認識によって所定の指示オブジェクトを検出する指示オブジェクト検出手段と、
検出された当該指示オブジェクトによって指示された映像部分から、文字認識によって学習項目辞書手段の学習項目の文字列を検出し、当該学習項目を時系列に対応付ける映像学習項目検出手段と、
検出された複数の学習項目を、出現合計時間長が長い順に又は出現頻度が多い順に並べた学習項目リストを生成する学習項目リスト生成手段と
してコンピュータを機能させることを特徴とする。
本発明の学習状況推定プログラムにおける他の実施形態によれば、
指示オブジェクト検出手段は、手の指先又はペン先の画像が指示する位置を、当該指示オブジェクトによって指示された部分として検出する
ようにコンピュータを更に機能させることも好ましい。
本発明の学習状況推定プログラムにおける他の実施形態によれば、
映像学習項目検出手段は、検出された学習項目毎に、その指示が検出された指示時刻と、その指示が連続した時間長とを対応付けるものである
ようにコンピュータを更に機能させることも好ましい。
本発明の学習状況推定プログラムにおける他の実施形態によれば、
指示オブジェクト検出手段は、消しゴムに基づく消去オブジェクトを更に検出し、
映像学習項目検出手段は、消しゴムオブジェクトが検出された時刻に一致する学習項目を対応付け、
学習項目リスト生成手段は、学習項目をその消去操作の発生回数が多い順に並べた学習項目リストを更に生成する
ようにコンピュータを更に機能させることも好ましい。
本発明の学習状況推定プログラムにおける他の実施形態によれば、
指示オブジェクト検出手段は、手の動き(指示オブジェクトの動き)を更に検出し、
映像学習項目検出手段は、学習項目を検出した際に、その手の動き状態「連続」「断続」「停留」毎の回数を計数し、
学習項目リスト生成手段は、「連続」「断続」「停留」のいずれか1つの発生回数が多い順に並べた学習項目リストを生成する
ようにコンピュータを更に機能させることも好ましい。
本発明の学習状況推定プログラムにおける他の実施形態によれば、
人の発言を音声認識によって変換したテキストから、学習項目辞書手段の学習項目の文字列を検出し、当該学習項目を時系列に対応付ける音声学習項目検出手段と、
映像学習項目検出手段の時系列学習項目と、音声学習項目検出手段の時系列学習項目とを比較し、所定の時刻範囲で共通する時系列学習項目のみを、映像学習項目検出手段の時系列学習項目とする学習項目判定手段と
してコンピュータを更に機能させることも好ましい。
本発明によれば、学習資料が映る学習映像を撮影するカメラを搭載し、その学習に費やされた学習項目を推定する装置であって、
複数の学習項目を予め登録した学習項目辞書手段と、
学習映像から、画像認識によって所定の指示オブジェクトを検出する指示オブジェクト検出手段と、
検出された当該指示オブジェクトによって指示された映像部分から、文字認識によって学習項目辞書手段の学習項目の文字列を検出し、当該学習項目を時系列に対応付ける映像学習項目検出手段と、
検出された複数の学習項目を、出現合計時間長が長い順に又は出現頻度が多い順に並べた学習項目リストを生成する学習項目リスト生成手段と
を有することを特徴とする。
本発明によれば、装置を用いて、学習資料をカメラによって撮影した学習映像から、その学習に費やされた学習項目を推定する学習状況推定方法であって、
装置は、
複数の学習項目を予め登録した学習項目辞書部を有し、
学習映像から、画像認識によって所定の指示オブジェクトを検出する第1のステップと、
検出された当該指示オブジェクトによって指示された映像部分から、文字認識によって学習項目辞書部の学習項目の文字列を検出し、当該学習項目を時系列に対応付ける第2のステップと、
検出された複数の学習項目を、出現合計時間長が長い順に又は出現頻度が多い順に並べた学習項目リストを生成する第3のステップと
を有することを特徴とする。
本発明のプログラム、装置及び方法によれば、学習映像からその学習に費やされた学習項目を推定することができる。
本発明の学習状況推定装置における第1の機能構成図である。 本発明の学習状況推定装置における第2の機能構成図である。 学習映像に映る指示オブジェクトの指示向きを表す説明図である。 学習映像に映る指示オブジェクトの指示位置を表す説明図である。 映像学習項目検出部及び学習項目リストによって取得されるデータを表す説明図である。 消しゴムオブジェクトによって取得されるデータを表す説明図である。 手の動きによって取得されるデータを表す説明図である。 本発明の学習状況推定装置について音声認識部を有する第3の機能構成図である。 本発明の学習状況推定装置を推定サーバに搭載したシステム構成図である。
以下、本発明の実施の形態について、図面を用いて詳細に説明する。
本発明は、学習資料が映る学習映像から、その学習に費やされた学習項目を推定する学習状況推定装置に基づくものである。学習状況推定装置は、端末として機能するものであってもよいし、サーバとして機能するものであってもよい。また、実施形態によれば、マイクやカメラのようなユーザインタフェースを予め搭載した、タブレット端末やスマートフォンであることも好ましい。
図1は、本発明の学習状況推定装置における第1の機能構成図である。図1によれば、学習映像は、学習者が学ぶべき学習資料(教科書や問題用紙)がカメラによって撮影されたものである。カメラは、短時間毎に間欠的に学習画像を撮影するものであってもよい。撮影された学習画像は、その撮影時刻と共に逐次記録される。
図2は、本発明の学習状況推定装置における第2の機能構成図である。図2によれば、学習映像は、学習者が学ぶべき学習資料がディスプレイに映されたものである。ディスプレイは、例えば人の指先を認識するタッチパネル型であってもよいし、電子ペンを認識するものであってもよい。
図1及び図2の学習状況推定装置1によれば、学習項目辞書部10と、指示オブジェクト検出部11と、映像学習項目検出部12と、学習項目リスト生成部13とを有する。これら機能構成部は、装置に搭載されたコンピュータを機能させる学習状況推定プログラムとして機能する。また、これら機能構成部の処理の流れは、学習状況推定方法としても理解できる。
[学習項目辞書部10]
学習項目辞書部10は、複数の学習項目を予め登録したものである。「学習項目」とは、例えば学習項目の単元や問題を表す語をいう。図1によれば、学習項目として「証明」「三角形」「直角」・・・等が登録されている。
尚、学習項目辞書部10は、「問題番号」と「学習項目」とを対応付けたものであってもよい。授業中には、学習項目として、単元や小単元、学習項目の名称ではなく、教科書や問題集、ドリル等の問題番号やページ番号が指示されることも多い。このとき、学習項目の名称として、学習項目を検出することはできない。問題番号のみでは、教師及び生徒の当事者同士は互いに認識できているものの、第三者にとってその学習項目を認識することはできない。そこで、その問題番号に対応する学習項目を対応付けておくことも好ましい。
[指示オブジェクト検出部11]
指示オブジェクト検出部11は、学習映像から、予め設定された指示オブジェクトを検出する。
図1によれば、学習映像は、例えば、教師と学習者とが同じ方向に座る机の上方から、机上の学習資料の映像を撮影したものである。この場合、指示オブジェクト検出部11は、学習映像から画像認識によって指示オブジェクトを検出する。そして、手の指先又はペン先の画像が指示する位置を、当該指示オブジェクトによって指示された部分として検出する。
図2によれば、学習映像は、ディスプレイに表示された学習資料そのものである。この場合、指示オブジェクト検出部11は、ディスプレイに対するポインティング部分を指示オブジェクトとして検出する。そして、ポインティングデバイス、手の指先又はペン先によってタッチした位置を、指示オブジェクトによって指示された部分として検出する。
指やペンの検出は、例えばOpenCV(登録商標)のコンピュータビジョン向けライブラリ(Intel社製)や、Kinect(登録商標)のデバイス(Microsoft社製)のような既存技術を用いることができる。基本的には、学習映像の中から、肌やペンの色やベクトル形状を検出する。
また、指示オブジェクトが、教師のものか又は学習者のものかを判別することも好ましい。簡易な方法として、教師用ペンと学習者用ペンとを異なる色で登録しておき、その色に応じて教師又は学習者のいずれかが指示しているかを判別することができる。
図3は、学習映像に映る指示オブジェクトの指示向きを表す説明図である。
図3によれば、指やペンの指示方向によって、その指示オブジェクトが教師用のものか又は学習者用のものかを判別する。例えば、教師が、机に向かって左座席に居るならば、第2象限又は第3象限の角度で指示することなる。逆に、学習者が、机に向かって右座席に居るならば、第1象限又は第4象限の角度で指示することなる。
[映像学習項目検出部12]
映像学習項目検出部12は、検出された当該指示オブジェクトによって指示された部分から、学習項目辞書部10の学習項目の文字列を検出する。
図1によれば、映像学習項目検出部12は、指示オブジェクトによって指示された映像部分から、文字認識によって学習項目の文字列を検出する。
図2によれば、映像学習項目検出部12は、指示オブジェクトによって指示された部分から、学習項目の文字列を検出する。
尚、時間ウィンドウ(例えば20秒)毎に、指示オブジェクトが指示する1つの文字列が検出されるものであってもよい。
文字認識は一般に、1文字ずつ確定して文字列を出力しており、その文字列が学習項目辞書部10に記憶された学習項目と完全一致すれば、その学習項目を採用する。また、完全一致しなくても、一定文字数以上の部分一致であっても、その学習項目を採用するものであってもよい。更に、認識した文字列と辞書の学習項目とのパターンマッチングによって、字画的な類似度が所定値以上高い場合に、その学習項目を採用するものであってもよい。例えば、文字列の認識結果として、誤認識した文字列「三角刑」「会同条件」であってもそれぞれ、正しい「三角形」「合同条件」の学習項目を採用することができる。
図4は、学習映像に映る指示オブジェクトの指示位置を表す説明図である。
図4によれば、学習映像は通常、机上の問題集などの紙面の配置が、画角に対して平行ではなく、様々な方向に傾いて置かれている。そのために、指示オブジェクトが指示する文字列について、その印字方向が判別できず、文字認識が困難となる。
この場合、紙面の縁と机との境界を認識し映像の水平線との角度を算出する。図4によれば、以下の2つの角度が得られる。
紙面の横縁と映像の水平との角度α
紙面の縦縁と映像の水平の角度β
一般に文字列が横書きであれば、机上に置かれた紙面の角度αは角度βよりも絶対値は小さくなり、紙面は角度αで置かれていると想定できる。この角度で映像を水平に補正し、指やペンで指示した位置から近傍の画像を文字認識し、文字列を取得することができる。また、指示位置の近傍の画像範囲は、字数や行数のパラメータによって変更可能である。国語のように縦書きであっても、同様に縦書きの文字列の方向を想定できる。
図5は、映像学習項目検出部及び学習項目リストによって取得されるデータを表す説明図である。
映像学習項目検出部12は、学習項目辞書部10の学習項目と一致する文字列を検出した場合、当該学習項目を時系列に対応付ける。図5によれば、映像学習項目検出部12は、検出された学習項目毎に、その指示が検出された指示時刻と、その指示が連続した時間長とを対応付けている。図5によれば、学習時間60分間の学習映像の中で、検出された時系列の学習項目は、学習項目リスト生成部12へ出力される。
[学習項目リスト生成部13]
学習項目リスト生成部13は、検出された複数の学習項目を、「出現合計時間長が長い順に」又は「出現頻度が多い順に」並べた学習項目リストを生成する。図5によれば、それぞれ異なる学習項目リストが例示されている。「出現合計時間長が長い順に」であれば、学習項目「合同条件」に学習時間が最も費やされており、「出現頻度が多い順に」であれば、学習項目「証明」に学習頻度が最も費やされている。この学習項目リストは、教師及び学習者の両方を合算して作成されたものであってもよいし、教師用・学習者用それぞれ別に作成されたものであってもよい。
個別授業の場合、教師が学習者に問題を与え、回答状況に応じた学習課題の理解度を測っている。そのために、出現頻度が高いか又は学習時間が長い学習項目は、授業範囲であって、学習者の理解が不十分なために重点的に授業をしたといえる。一方で、出現頻度が低く且つ学習時間が短い学習項目は、授業範囲でないか、又は、授業範囲であっても学習項目を良く理解しているといえる。
図6は、消しゴムオブジェクトによって取得されるデータを表す説明図である。
指示オブジェクト検出部11は、学習映像から、「消しゴム」に基づく「消去オブジェクト」を更に検出するものであってもよい。例えば、消しゴムの使用は、教師からの注意によって書き直すことが多く、理解が不十分であると想定できる。その消去オブジェクトの往復運動によって、学習者自身がその部分の記述を消去し、回答に迷っていると認識することができる。このとき、消しゴムオブジェクトを検出された時刻及び時間長も計測する。
また、映像学習項目検出部12は、消しゴムオブジェクトが検出された時刻に一致する学習項目を対応付ける。即ち、その学習項目に対して、学習者がその回答に迷っていると判定することができる。
そして、学習項目リスト生成部13は、消去オブジェクトが検出された時刻及び時間長に対応する学習項目を、その消去操作の発生回数が多い順に並べた学習項目リストを更に生成する。図6によれば、学習項目「証明」が検出された時に、消しゴムオブジェクトが検出された時間が長い。即ち、学習者は、学習項目「証明」に対する回答に迷っていることが多いといえる。
図7は、手の動きによって取得されるデータを表す説明図である。
指示オブジェクト検出部11が、手の動き(即ち指示オブジェクトの動き)を検出するものであってもよい。
また、映像学習項目検出部12は、学習項目を検出した際に、その手の動き状態「連続」「断続」「停留」毎の回数を計数する。
そして、学習項目リスト生成部13は、例えば手の動き状態「連続」「断続」「停留」毎の回数に応じて並べた学習項目リストを生成する。図7によれば、学習項目リストは、「停留」の回数が多い順に並べられている。「停留」の回数が多いとは、思考中であって迷っており、筆記を停止していると認識できる。
手の動き状態を検出する方法としては、フーリエ係数を用いる技術がある(例えば非特許文献3参照)。この技術によれば、指示オブジェクト検出部11が、時間ウィンドウ(例えば1秒)毎に、その動きの時間動作データを周波数軸にフーリエ変換し、そのフーリエ係数の特徴を抽出する。これによって、指示オブジェクト検出部11は、時間ウィンドウ(例えば1秒)毎に「移動」「停止」を判定し、指示オブジェクトが(手の動き)が以下のいずれであるかを判定する。即ち、「停止」動作の回数xによって「連続」「断続」「停留」を判定する。
「連続」フーリエ係数が閾値以下の「停止」動作が、連続3秒以下(x≦3)
学習者が、活発に筆記をしていると想定する
「断続」フーリエ係数が閾値以下の「停止」動作が、
連続3秒よりも長く、7秒よりも短い(3<x<7)
学習者が、思考錯誤して筆記をしていると想定する
「停留」フーリエ係数が閾値以下の「停止」動作が、連続7秒以上(7≦x)
学習者が、思考中であって迷っており、筆記を停止していると想定する
例えば1秒の時間ウィンドウ毎に、以下のような時系列で「移動*」「停止=」が検出されたとする。
[*==*======*=======*===*=*==*](->時系列)
≦3 3<7 7≦ ≦3 ≦3 ≦3
-連続->--------断続->----------停留->------連続------->
このように、「停止=」動作の回数に応じて、「連続」「断続」「停留」が判定される。
図8は、本発明の学習状況推定装置について音声認識部を有する第3の機能構成図である。
図8によれば、授業の個別学習における教師及び生徒の発話音声を収音するマイクと、その音声信号を音声認識によって変換したテキストを出力する音声認識部とする。音声認識の単語認識率を向上させるために、言語モデルである学習状況に関する単語辞書を備え、テキストコーパスを集約するものであってもよい。また、音響モデルとして、発話者の音響サンプルを学習し、特定話者を認識にすることも好ましい。一方で、本発明によれば、学習項目のみを検出できればよいので、一般の音声認識技術に必要な高い認識率は必ずしも必要ではない。話者認識までも必要とすることなく、汎用辞書のみを用いたものであってもよい。
図8によれば、図1及び図2の機能構成部に加えて、音声学習項目検出部14と、学習項目判定部15とを更に有する。
[音声学習項目検出部14]
音声学習項目検出部14は、人の発言を音声認識によって変換したテキストから、学習項目辞書部10の学習項目の文字列を検出し、当該学習項目を時系列に対応付ける。それら時系列の学習項目は、学習項目判定部15へ出力される。
[学習項目判定部15]
学習項目判定部15は、映像学習項目検出部12の時系列学習項目と、音声学習項目検出部14の時系列学習項目とを比較し、所定の時刻範囲で共通する時系列学習項目のみを、映像学習項目検出部12の時系列学習項目とする。発話音声から検出した学習項目と映像から検出した学習項目とは、一般的に時刻が一致する場合が多い。映像と音声の両方で学習項目の抽出を補完し合うことによって、学習項目の抽出精度を向上させることができる。
学習映像では指やペンが紙面上に置いてあるだけでも学習項目が検出される場合があるが、その時刻で同じ学習項目を意味する発言音声が無ければ、意味を持たないと判定して破棄することできる。また、音声の中で学習項目が発言されず、「これ」「それ」という指示代名詞で問題を指示している場合もある。この場合、学習映像から抽出した具体的な学習項目名を対応付けて、分析することもできる。
図9は、本発明の学習状況推定装置を推定サーバに搭載したシステム構成図である。
端末1は、学習映像を推定サーバ2へ送信し、推定サーバ2から学習項目リストを受信する。推定サーバ1の各機能構成部は、前述した図1、図2及び図8と同じものである。
以上、詳細に説明したように、本発明のプログラム、装置及び方法によれば、学習映像からその学習に費やされた学習項目を推定することができる。特に、教師が重点的に指導した学習項目や、学習者が理解できていない学習項目を推定することができる。このような学習項目リストは、教師のみならず、学習状況の管理者や保護者でも共有でき、その後の学習方針の決定に用いることもできる。
前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。
1 学習状況推定装置
10 学習項目辞書部
11 指示オブジェクト検出部
12 映像学習項目検出部
13 学習項目リスト生成部
14 音声学習項目検出部
15 学習項目判定部
2 推定サーバ

Claims (8)

  1. 学習資料をカメラによって撮影した学習映像から、その学習に費やされた学習項目を推定するようにコンピュータを機能させる学習状況推定プログラムであって、
    複数の学習項目を予め登録した学習項目辞書手段と、
    前記学習映像から、画像認識によって所定の指示オブジェクトを検出する指示オブジェクト検出手段と、
    検出された当該指示オブジェクトによって指示された映像部分から、文字認識によって前記学習項目辞書手段の学習項目の文字列を検出し、当該学習項目を時系列に対応付ける映像学習項目検出手段と、
    検出された複数の学習項目を、出現合計時間長が長い順に又は出現頻度が多い順に並べた学習項目リストを生成する学習項目リスト生成手段と
    してコンピュータを機能させることを特徴とする学習状況推定プログラム。
  2. 前記指示オブジェクト検出手段は、手の指先又はペン先の画像が指示する位置を、当該指示オブジェクトによって指示された部分として検出する
    ようにコンピュータを更に機能させることを特徴とする請求項に記載の学習状況推定プログラム。
  3. 前記映像学習項目検出手段は、検出された学習項目毎に、その指示が検出された指示時刻と、その指示が連続した時間長とを対応付けるものである
    ようにコンピュータを更に機能させることを特徴とする請求項1又は2に記載の学習状況推定プログラム。
  4. 前記指示オブジェクト検出手段は、消しゴムに基づく消去オブジェクトを更に検出し、
    前記映像学習項目検出手段は、消しゴムオブジェクトが検出された時刻に一致する学習項目を対応付け、
    前記学習項目リスト生成手段は、学習項目をその消去操作の発生回数が多い順に並べた学習項目リストを更に生成する
    ようにコンピュータを更に機能させることを特徴とする請求項1からのいずれか1項に記載の学習状況推定プログラム。
  5. 前記指示オブジェクト検出手段は、手の動き(指示オブジェクトの動き)を更に検出し、
    前記映像学習項目検出手段は、学習項目を検出した際に、その手の動き状態「連続」「断続」「停留」毎の回数を計数し、
    前記学習項目リスト生成手段は、「連続」「断続」「停留」のいずれか1つの発生回数が多い順に並べた学習項目リストを生成する
    ようにコンピュータを更に機能させることを特徴とする請求項1からのいずれか1項に記載の学習状況推定プログラム。
  6. 人の発言を音声認識によって変換したテキストから、前記学習項目辞書手段の学習項目の文字列を検出し、当該学習項目を時系列に対応付ける音声学習項目検出手段と、
    前記映像学習項目検出手段の時系列学習項目と、前記音声学習項目検出手段の時系列学習項目とを比較し、所定の時刻範囲で共通する時系列学習項目のみを、前記映像学習項目検出手段の時系列学習項目とする学習項目判定手段と
    してコンピュータを更に機能させることを特徴とする請求項1からのいずれか1項に記載の学習状況推定プログラム。
  7. 学習資料が映る学習映像を撮影するカメラを搭載し、その学習に費やされた学習項目を推定する装置であって、
    複数の学習項目を予め登録した学習項目辞書手段と、
    前記学習映像から、画像認識によって所定の指示オブジェクトを検出する指示オブジェクト検出手段と、
    検出された当該指示オブジェクトによって指示された映像部分から、文字認識によって前記学習項目辞書手段の学習項目の文字列を検出し、当該学習項目を時系列に対応付ける映像学習項目検出手段と、
    検出された複数の学習項目を、出現合計時間長が長い順に又は出現頻度が多い順に並べた学習項目リストを生成する学習項目リスト生成手段と
    を有することを特徴とする装置。
  8. 装置を用いて、学習資料をカメラによって撮影した学習映像から、その学習に費やされた学習項目を推定する学習状況推定方法であって、
    前記装置は、
    複数の学習項目を予め登録した学習項目辞書部を有し、
    前記学習映像から、画像認識によって所定の指示オブジェクトを検出する第1のステップと、
    検出された当該指示オブジェクトによって指示された映像部分から、文字認識によって前記学習項目辞書部の学習項目の文字列を検出し、当該学習項目を時系列に対応付ける第2のステップと、
    検出された複数の学習項目を、出現合計時間長が長い順に又は出現頻度が多い順に並べた学習項目リストを生成する第3のステップと
    を有することを特徴とする学習状況推定方法。
JP2015013579A 2015-01-27 2015-01-27 学習映像からその学習に費やされた学習項目を推定するプログラム、装置及び方法 Active JP6396813B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015013579A JP6396813B2 (ja) 2015-01-27 2015-01-27 学習映像からその学習に費やされた学習項目を推定するプログラム、装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015013579A JP6396813B2 (ja) 2015-01-27 2015-01-27 学習映像からその学習に費やされた学習項目を推定するプログラム、装置及び方法

Publications (2)

Publication Number Publication Date
JP2016138995A JP2016138995A (ja) 2016-08-04
JP6396813B2 true JP6396813B2 (ja) 2018-09-26

Family

ID=56560137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015013579A Active JP6396813B2 (ja) 2015-01-27 2015-01-27 学習映像からその学習に費やされた学習項目を推定するプログラム、装置及び方法

Country Status (1)

Country Link
JP (1) JP6396813B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6824105B2 (ja) * 2017-04-28 2021-02-03 日本電信電話株式会社 情報処理装置、情報処理方法および情報処理プログラム
KR20240006171A (ko) * 2022-07-06 2024-01-15 주식회사 모랑스 온라인 학습 시스템 및 방법

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002311800A (ja) * 2001-04-16 2002-10-25 Yoshinori Okazaki 家庭教師システム
JP2007057734A (ja) * 2005-08-24 2007-03-08 Fuji Xerox Co Ltd 教材作成装置
JP5502351B2 (ja) * 2009-03-19 2014-05-28 ソフトバンクBb株式会社 指導システム、指導方法、およびプログラム
US20100273138A1 (en) * 2009-04-28 2010-10-28 Philip Glenny Edmonds Apparatus and method for automatic generation of personalized learning and diagnostic exercises
JP2012220933A (ja) * 2011-04-14 2012-11-12 Sharp Corp 学習用装置、その制御用プログラム、および、学習システム
US20130095461A1 (en) * 2011-10-12 2013-04-18 Satish Menon Course skeleton for adaptive learning
JP6205767B2 (ja) * 2013-03-13 2017-10-04 カシオ計算機株式会社 学習支援装置、学習支援方法、学習支援プログラム、学習支援システム、およびサーバ装置
KR102138277B1 (ko) * 2013-07-04 2020-07-28 삼성전자 주식회사 영상 인식 방법 및 이를 이용하는 장치

Also Published As

Publication number Publication date
JP2016138995A (ja) 2016-08-04

Similar Documents

Publication Publication Date Title
US8793118B2 (en) Adaptive multimodal communication assist system
Sebe et al. Emotion recognition based on joint visual and audio cues
US10706738B1 (en) Systems and methods for providing a multi-modal evaluation of a presentation
US7042442B1 (en) Virtual invisible keyboard
US11475788B2 (en) Method and system for evaluating and monitoring compliance using emotion detection
US10546508B2 (en) System and method for automated literacy assessment
CN109191939B (zh) 一种基于智能设备的三维投影交互方法及智能设备
CN110085229A (zh) 智能虚拟外教信息交互方法及装置
US20180168498A1 (en) Computer Automated Method and System for Measurement of User Energy, Attitude, and Interpersonal Skills
CN114298497A (zh) 教师课堂教学质量的评估方法以及装置
Li et al. Multi-stream deep learning framework for automated presentation assessment
JP6425493B2 (ja) 人の発言に基づいて学習項目に対する評価レベルを推定するプログラム、装置及び方法
Raziq et al. Pakistan sign language recognition and translation system using leap motion device
CN114021962A (zh) 教学评估方法、评估装置及其相关设备和存储介质
Chen et al. Designing an automated assessment of public speaking skills using multimodal cues
US10915819B2 (en) Automatic real-time identification and presentation of analogies to clarify a concept
JP6396813B2 (ja) 学習映像からその学習に費やされた学習項目を推定するプログラム、装置及び方法
Ashwin et al. Unobtrusive students' engagement analysis in computer science laboratory using deep learning techniques
KR102482841B1 (ko) 인공지능 미러링 놀이 가방
US11556754B1 (en) Systems and methods for detecting co-occurrence of behavior in collaborative interactions
Yabunaka et al. Facial expression sequence recognition for a japanese sign language training system
CN114830208A (zh) 信息处理装置、信息处理方法和程序
Sebe et al. Bimodal emotion recognition
JP2021064101A (ja) 情報処理装置、制御方法及びプログラム
Amatya et al. Translation of Sign Language Into Text Using Kinect for Windows v2

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180830

R150 Certificate of patent or registration of utility model

Ref document number: 6396813

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150