JP2007102344A - 自動評価装置、プログラムおよび方法 - Google Patents
自動評価装置、プログラムおよび方法 Download PDFInfo
- Publication number
- JP2007102344A JP2007102344A JP2005288525A JP2005288525A JP2007102344A JP 2007102344 A JP2007102344 A JP 2007102344A JP 2005288525 A JP2005288525 A JP 2005288525A JP 2005288525 A JP2005288525 A JP 2005288525A JP 2007102344 A JP2007102344 A JP 2007102344A
- Authority
- JP
- Japan
- Prior art keywords
- state
- students
- predetermined
- attendance
- student
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 title claims description 35
- 230000008569 process Effects 0.000 claims description 23
- 238000001514 detection method Methods 0.000 claims description 18
- 238000012854 evaluation process Methods 0.000 claims description 2
- 230000001360 synchronised effect Effects 0.000 claims 1
- 238000012790 confirmation Methods 0.000 abstract 1
- 230000008859 change Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 210000000887 face Anatomy 0.000 description 4
- 210000004709 eyebrow Anatomy 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000000994 depressogenic effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000000881 depressing effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】受講生の状態を示す情報を自動収集して講師に提供するシステムで、受講生の情報のうち特に確認すべき情報のみを、確認すべきタイミングで講師に提供する。
【解決手段】受講者を含む場景を繰り返し撮影することにより得られた複数の画像から受講者の顔情報を抽出し、その顔情報に基づいて「頷く」「居眠り」など所定の受講状態の受講者を識別する(状態識別部53の処理)。受講状態ごとに識別された受講者の数を単位時間ごとに計測し、単位時間あたりの受講者の数を所定数と比較することにより、所定の受講状態の受講者数が所定数を超えた時間帯を検出する(同期検出部54の処理)。所定の受講状態の受講者数が所定数を超えたことが検出された時間帯についてのみ、講演に対する評価を出力する(評価部55の処理)。
【選択図】図2
【解決手段】受講者を含む場景を繰り返し撮影することにより得られた複数の画像から受講者の顔情報を抽出し、その顔情報に基づいて「頷く」「居眠り」など所定の受講状態の受講者を識別する(状態識別部53の処理)。受講状態ごとに識別された受講者の数を単位時間ごとに計測し、単位時間あたりの受講者の数を所定数と比較することにより、所定の受講状態の受講者数が所定数を超えた時間帯を検出する(同期検出部54の処理)。所定の受講状態の受講者数が所定数を超えたことが検出された時間帯についてのみ、講演に対する評価を出力する(評価部55の処理)。
【選択図】図2
Description
本発明は、講演会や授業で、受講者の反応を示す情報を収集することにより、その講演会などを評価する評価装置、プログラムおよび方法に関する。
講演会、学校の授業などでは、通常、講師は受講者の反応を確認しながら授業を進める。しかし、個々の受講者の顔が見えない環境では、講師が受講者の反応を確認することは難しい。
このような問題への解決策として、例えば特許文献1は、講師端末と受講者端末とをネットワークで接続して授業を行なうシステムで、受講者をビデオカメラで撮影することにより、受講者の状態に関する情報を講師に提供することを提案している。また、特許文献2では、さらに正確に受講者の状態を把握するべく、受講者の身体や受講者が座る椅子にセンサーを取り付けて脳波、血圧、脈拍などを測定し、その情報を講師に提供することを提案している。
特開2001−067482号公報
特開2004−199506号公報
従来技術によれば、講師は個々の受講生の状態や状態に関する集計情報を端末画面上で確認することができる。しかし、常時多数の情報を講師に提供しても、講師の側がその情報を十分に活用しきれない場合は少なくない。あるいは、提供される多くの情報に踊らされて、講師が不用意に講義の内容を変更したり進行を調整したりしてしまうといった問題が起こり得る。このような問題は、通信講義に限らず、講師と受講者とが直接対面する講堂や教室などでも同様に起こり得る問題である。
このため、受講生の状態に関する情報のうち、特に確認すべき情報を、確認すべきタイミングで講師に提供するしくみが望まれる。本発明は、特に確認すべき情報として、講師の側に起因して大多数の受講生に状態変化が生じたことを示す情報を提供する。
受講者の反応が講演・講義の内容や進行に起因する場合、大半の受講者が同じ反応を示すことが多い。1〜2人が居眠りをしている場合には受講者の睡眠不足が疑われるが、半分以上の受講生が居眠りをしている場合には講義に何らかの問題があると考えるのが妥当である。そこで、本発明では、多くの受講者が同期して同じ状態になった場合に、その同期を判断材料として講演・講義を自動的に評価する。
本発明は、受講者の受講状態を示す情報に基づいて、講演を自動的に評価する装置を提供する。この装置は、受講者を含む場景を繰り返し撮影することにより得られた複数の画像について、該画像に含まれる受講者の顔情報を抽出し、該顔情報に基づいて、所定の受講状態の受講者を識別する状態識別手段を備える。この状態識別手段は、前記所定の受講状態として複数種類の受講状態を識別し得る手段であることが好ましい。また、状態識別手段により受講状態ごとに識別された受講者の数を単位時間ごとに計測し、単位時間あたりの受講者の数を所定数と比較することにより、前記所定の受講状態の受講者数が前記所定数を超えた時間帯を検出する同期検出手段を備える。さらに、同期検出手段により検出された時間帯の講演に対する評価を、前記所定の受講状態の種類および/または前記所定の受講状態の受講者数に基づいて決定し出力する評価手段を備える。
また、本発明は、受講者の受講状態を示す情報に基づいて、講演を自動的に評価する評価プログラムを提供する。このプログラムはコンピュータに、受講者を含む場景を繰り返し撮影することにより得られた複数の画像について、該画像に含まれる受講者の顔情報を抽出し、該顔情報に基づいて、所定の受講状態の受講者を識別する状態識別処理と、前記状態識別処理により受講状態ごとに識別された受講者の数を単位時間ごとに計測し、単位時間あたりの受講者の数を所定数と比較することにより、前記所定の受講状態の受講者数が前記所定数を超えた時間帯を検出する同期検出処理と、前記同期検出処理により検出された時間帯の講演に対する評価を、前記所定の受講状態の種類および/または前記所定の受講状態の受講者数に基づいて決定し出力する評価処理とを実行させる。
また、本発明は、受講者の受講状態を示す情報に基づいて、講演を自動的に評価する方法を提案する。この方法は、受講者を含む場景を繰り返し撮影することにより得られた複数の画像について、該画像に含まれる受講者の顔情報を抽出し、該顔情報に基づいて、所定の受講状態の受講者を識別し、受講状態ごとに識別された受講者の数を単位時間ごとに計測し、単位時間あたりの受講者の数を所定数と比較することにより、前記所定の受講状態の受講者数が前記所定数を超えた時間帯を検出し、検出された時間帯の講演に対する評価を、前記所定の受講状態の種類および/または前記所定の受講状態の受講者数に基づいて決定し、出力する。
以下、本発明の一実施形態について、図面を参照して詳細に説明する。以下に例示するシステムは、ある教室で講義を行なう講師をビデオカメラで撮影し、その映像を他の教室でも放映し、さらには自宅にいる受講者に向けてもネットワーク配信するシステムである。
図1に、上記システムの概略構成を示す。図に示すように、このシステムは、ビデオを放映する教室に設置された2台の教室カメラ1a、1b、在宅受講者の自宅にそれぞれ設置された受講者宅カメラ2a、2b、サーバコンピュータ5および教壇付近に設置された講師用端末6を備える。この他、講師を撮影するビデオカメラ、そのビデオカメラにより撮影された映像を放映するための教室用、自宅用設備なども備えているが、図1は、本発明に関連する構成のみ示している。
教室カメラ1a、1bは教室の教壇側の天井に据えつけられた回転可能な構造のビデオカメラである。回転可能な構造とは、例えばドーム型監視カメラのような構造、あるいは回転台にカメラを取り付けた構造などである。ビデオカメラの回転角度、撮影倍率は、受講者席に座った受講者全員の顔を撮影できる角度、倍率に設定されている。なお、教室が広く1台のカメラで受講者全員の顔を撮影できない場合、もしくは撮影できても顔が非常に小さくなってしまう場合には、複数台のカメラにより分担して撮影を行なう。教室カメラ1a、1bは、同じ建屋のコンピュータルームなどに設置されたサーバコンピュータ5と、ローカルエリアネットワーク3により接続されている。
受講者宅カメラ2a、2bは、CCDカメラなど任意の場所に設置し得る小型カメラである、在宅受講者は受講の際、自分の顔がうつる位置に受講者宅カメラを配置することが義務付けられている。受講者宅カメラ2a、2bにより撮影された画像は、インターネット4を介してサーバコンピュータ5にリアルタイムに転送される。
教室カメラ1a、1bおよび受講者宅カメラ2a、2bは、いずれも動画撮影または静止画の連続撮影を行なうように設定されている。本実施形態のシステムは、教室カメラ1a、1b、受講者宅カメラ2a、2bともに、受講者の状態変化を0.5秒以下の間隔で捉えられるように設定されている。
次に、図2を参照して、サーバコンピュータ5の構成について説明する。サーバコンピュータ5は、通信制御部51、記録部52、状態識別部53、同期検出部54および評価部55を備える。サーバコンピュータ5は、汎用のコンピュータに、本発明の機能を実現するためのプログラムを組み込んだものである。
通信制御部51は、汎用コンピュータに備えられた通信機能を使って、サーバコンピュータ5と教室カメラ1a、1b間のローカルエリアネットワーク3を介した通信、およびサーバコンピュータ5と受講者宅カメラ2a、2b間のインターネット4を介した通信を制御する。記録部52、状態識別部53、同期検出部54および評価部55は、後述する各処理を規定した要素プログラムをサーバコンピュータ5にインストールし、動作させることにより実現される処理部である。本実施形態では、サーバコンピュータ5は複数のプロセッサを備えており、各要素プログラムの処理は複数のプロセッサにより並列に処理される。
記録部52は、通信制御部51を介して、教室カメラ1a、1bから転送された映像・画像を受信し、符号化した後、撮影時刻を示す管理情報を付与してサーバコンピュータ5のメモリに書き込む。動画は0.5秒間隔の複数のフレーム画像として記録し、静止画はそのまま符号化して記録する。また記録部は、各部によりメモリに記録されたデータを所定のタイミングでサーバコンピュータ5に接続されているストレージ(図示せず)に出力する。
状態識別部53は、メモリに記憶されている画像を用いて、各受講者の各時刻における状態を表す第1状態データを生成する。また、状態識別部53は、生成した状態データを用いて各受講者の単位時間内の動きを分析し、各受講者の各時間帯における第2状態を表す状態データを生成する。
以下、第1状態データの生成処理について説明する。状態識別部53は、記録部52がメモリに書き込んだ0.5秒間隔の画像を順次読み出して、その画像から人物の顔を検出する。画像から顔を検出する技術としては公知のいずれの技術を用いてもよいが、本実施形態では一画像から多数の顔を検出する必要があるため、例えば所定の大きさの肌色領域であれば顔と判断する方法など、比較的シンプルな検出方法を採用することが好ましい。
状態識別部53は、次に、検出した顔に、受講者を区別するための受講者識別子を割り当てる。受講者識別子は、その受講者の顔が検出された位置を示す番号などとする。顔が検出された位置を示す番号は、各顔の位置を大まかに特定できる番号でよく、例えば画像を格子状に区切って各格子の位置を行番号と列番号で表し、顔が検出された位置に最も近い格子の行列番号を用いる方法などが考えられる。教室カメラ1a、1bの向きは固定されており、受講者は着席しているので、これにより同じ受講者の顔に対し、常に同じ受講者識別子を割り当てることができる。
続いて状態識別部53は、検出した人物ごとに顔の特徴を表す所定の特徴量を算出する。本実施形態では、眉または目の検出により眉間の位置座標を取得し、検出された顔の輪郭から、画像に写っている顔の最下端部の位置座標を取得する。そして、取得した2つの位置座標の差分値を算出する。
この処理では、画像に写っている顔が正面顔のときには、図3(a)に示すように、顎の位置座標が、顔の画像に写っている最下端部の位置座標として取得される。一方、画像に写っている顔がうつむき顔のときには、図3(b)に示すように、鼻など、より目に近い位置の座標が、顔の画像に写っている最下端部の位置座標として取得される。図3(a)および図3(b)の対比から明らかであるように、眉間から画像に写っている顔の最下端部までの距離dは、正面顔で最も長く、うつむき加減が大きいほど短くなるので、2箇所の位置座標の差分値により、顔のうつむき加減を判定することができる。なお、特徴量抽出に基づく顔の識別については種々の技術が知られており、本実施形態では、そのいずれの技術をも採用することができる。
状態識別部53は、算出した特徴量dに、画像の管理情報に含まれている撮影時刻の情報と、顔を検出した際に割り当てた受講者識別子とを付すことにより、図4に示す第1状態データを生成し、メモリに記憶する。状態識別部53が上記処理を繰り返すことにより、メモリには、各時刻における各受講者のうつむき加減を表す複数の第1状態データ7が蓄積されることとなる。
続いて、第1状態データを用いた第2状態データの生成処理について説明する。状態識別部53は10秒分の撮影画像について第1状態データの生成処理を実行すると、一旦第1状態データの生成処理を中断し、第2状態データの生成処理を実行する。第2状態データの生成処理が終了すると、第1状態データの生成処理を再開し、以降、第1状態データの生成処理とを、交互に実行する。
第2状態データの生成処理では、直前に生成した撮影時間10秒分の第1状態データをメモリから読み込み、受講者識別子に基づいて受講者別に分類する。続いて、各受講者の第1状態データを時刻情報に基づいて時系列に並べる。状態識別部53は、この時系列に並べられたデータ群から、特徴量(距離d)の経時変化を表す波形パターンを生成する。図5は生成される波形パターンを、横軸を時間t、縦軸を距離dとして表した図である。
状態識別部53は、生成した波形パターンを、予め登録されているパターンと照合する。本実施の形態では、図6に示す3種類のパターンが登録されている。図6(a)は、軽くうつむく動作が行なわれたことを表す波形であり、1秒程度の短いパターンである。以下、この波形パターンを「頷きパターン」と称する。図6(b)は、うつむく動作が2〜3秒周期で繰り返されている状態、すなわち完全に眠ってはいないが、うつらうつらしている初期の居眠り状態を表す10秒の波形パターンである。以下、この波形パターンを「居眠りパターン」と称する。図6(c)は、正面を向いていたが一時的に5秒ほど深くうつむき、再び正面をむくという動作を表している。このパターンは6秒程度のパターンである。以下、この波形パターンを、「ノート取りパターン」と称する。
状態識別部53は、各受講者について図6(a)〜(c)に示す波形とのパターンマッチング処理を実行する。図6(a)の「頷きパターン」のように、登録パターンが生成されるパターンよりも短い場合には、登録パターンを生成した波形パターンの時間軸に沿って移動しながら何回かマッチングをとる。これにより、図5に示す例のように5秒を過ぎたあたりに頷きパターンがある場合でも、頷き状態を識別することができる。
状態識別部53は、上記パターンマッチング処理により、各受講者が、「頷き」、「居眠り」、「ノート取り」、「その他」のいずれの状態にあるかを識別する。そして、識別した状態を示す識別コードに、受講者識別子と時間帯を示す情報を付与したデータを、図7に示す第2状態データ8としてメモリに記憶する。本実施形態では、時間帯を示す情報は、10秒間の開始時刻と10秒という時間幅を示す情報とする。
なお、本実施形態では10秒間で20の画像が取得されるため、第2状態データ8は通常は20個の第1状態データ7に基づいて生成されることになるが、受講者が講義の途中で離籍した場合には画像から顔が検出されないため第1状態データ7が生成されない。このため、本実施形態では、状態識別部53は第1状態データ7を受講者別に分類した後、ソーティングを行なう前に、その受講者の第1状態データ7の数が20個か否かを判定する。20個に満たない場合には、「離席」を示すコードに、受講者識別子と時間帯を示す情報を付与して第2状態データ8を生成する。
以上に説明した状態識別部53の処理により、メモリには「頷き」、「居眠り」、「ノート取り」、「離席」、「その他」のいずれかの状態を示す第2状態データが、10秒ごとに受講者の数だけ書き込まれる。
次に、再び図2に戻り、同期検出部54の処理について説明する。同期検出部54は、4個のカウンタを制御することにより、「頷き」、「居眠り」、「ノート取り」、「離席」の4つの状態の受講者数を単位時間ごとカウントする。同期検出部54は、状態識別部53がメモリに書き込んだ第2状態データを10秒おきに読み込み、各データに含まれる状態コードを参照する。状態コードが「頷き」、「居眠り」、「ノート取り」、「離席」のいずれかを示している場合には、その状態コードが示す状態に対応するカウンタの値をカウントアップする。状態コードが「その他」を示している場合には何もしない。10秒分の第2状態データについてのカウント処理が終了すると、続いて同期検出部54は、各カウンタの値を所定値と比較することにより、カウント値が所定値を越えたカウンタの有無を判定する。本実施形態では、所定値は、欠席者を含む全受講者数の1/2の数に設定されている。カウント値が所定値を越えたカウンタが検出された場合には、同期検出部54は、そのカウンタによりカウントしていた状態を示す状態コードと、そのカウンタの値とを出力する。以上の処理が終了すると、同期検出部54は、各カウンタの値を、状態およびカウントを行なった時間帯の情報とともに、サーバコンピュータに接続されているストレージに保存する。その後、同期検出部54は、各カウンタの値を0にリセットする。そして、メモリから次の10秒分の第2状態データを読み込み、上記処理を繰り返す。
評価部55は、上記同期検出部54の出力を受け、状態コードとカウンタの値に基づいて講義の評価値を算出する。状態コードが「頷き」または「ノート取り」を示している場合には、「評価値=カウンタ値」とする。状態コードが「居眠り」または「離席」を示している場合には、「評価値=−カウンタ値」とする。
続いて、評価部55は、算出した評価値に基づく評価を、講師用端末6のモニタ画面に出力する。例えば、「居眠り増加中です。講義の進行を工夫して下さい。」などのメッセージを講師用端末6のモニタ画面に出力する。同時に、端末に附属するスピーカからアラーム音を出力してもよい。これにより、講義を行なっている講師は、自らの講義を客観的に評価し、必要に応じて講義の内容や進行を変更し、受講者にとってより有益な講義を行なうことができる。
なお、以上に説明した処理は、講義が行なわれている最中に実行される処理であるが、評価部55は、講義の終了後に評価レポートを生成して出力する機能も備えている。図8に、評価部55が出力する評価レポートの一例を示す。評価部55は、講師または他のオペレータから評価レポートの生成を要求されると、状態別、時間帯別にストレージに保存されているカウンタ値を読み込む。そして、10秒単位で保存されているカウンタ値を5分間分合計し、さらに、その合計値を全受講者の数で除算することにより、全体に対する割合(%)を求める。さらに、公知のグラフ自動生成技術を利用して、各状態の時間帯ごとの人数を表す棒グラフを生成する。これにより図8に例示したような評価レポートを出力する。
以上に説明したように、本実施形態のシステムによれば、過半数の受講者が同じ状態となったことが講師に通知されるため、講師は受講者の状態が、受講者の側に起因するものではなく、講義の内容や進行に起因するものであることを自覚することができる。上記システムでは、講師が受講者の状態を個別に確認しなくても、講義の客観的評価に必要な情報が自動的に収集され、分析され、講師に通知されるので、受講者数が多すぎて個別の状態確認が困難な場合には、特に有用である。講師は、講義の進行を調整すべきか否かの判断に迷うことがなくなるので、受講者反応が悪かった場合には直ちに講義のしかたを工夫するなど、講義を行ないながらリアルタイムに講義を改善することができる。もしくは、異なる受講者を対象に同じ講義を行なう場合に、前の講義で通知された点を意識しながら、よりよい講義を行なうことができる。
また、本実施形態のシステムでは、頷き、居眠り、ノート取りの3つの状態を、1種類の特徴量と、その特徴量の時間的な変化に基づいて区別するので、抽出・保存する特徴量の種類が少ない。このため、大勢の人物から特徴量を抽出してリアルタイムに分析を行なう場合に、効率よく高速に処理を行なうことができる。
3 ローカルエリアネットワーク、 4 インターネット、 5 サーバコンピュータ
d うつむき加減を示す特徴量、 7 第1状態データ、 8 第2状態データ
d うつむき加減を示す特徴量、 7 第1状態データ、 8 第2状態データ
Claims (6)
- 受講者の受講状態を示す情報に基づいて、講演を自動的に評価する装置であって、
受講者を含む場景を繰り返し撮影することにより得られた複数の画像について、該画像に含まれる受講者の顔情報を抽出し、該顔情報に基づいて、所定の受講状態の受講者を識別する状態識別手段と、
前記状態識別手段により受講状態ごとに識別された受講者の数を単位時間ごとに計測し、単位時間あたりの受講者の数を所定数と比較することにより、前記所定の受講状態の受講者数が前記所定数を超えた時間帯を検出する同期検出手段と、
前記同期検出手段により検出された時間帯の講演に対する評価を、前記所定の受講状態の種類および/または前記所定の受講状態の受講者数に基づいて決定し出力する評価手段とを備えた自動評価装置。 - 前記状態識別手段が、前記所定の受講状態として複数種類の受講状態を識別し得る手段であることを特徴とする請求項1記載の自動評価装置。
- 受講者の受講状態を示す情報に基づいて、講演を自動的に評価する評価プログラムであって、コンピュータに、
受講者を含む場景を繰り返し撮影することにより得られた複数の画像について、該画像に含まれる受講者の顔情報を抽出し、該顔情報に基づいて、所定の受講状態の受講者を識別する状態識別処理と、
前記状態識別処理により受講状態ごとに識別された受講者の数を単位時間ごとに計測し、単位時間あたりの受講者の数を所定数と比較することにより、前記所定の受講状態の受講者数が前記所定数を超えた時間帯を検出する同期検出処理と、
前記同期検出処理により検出された時間帯の講演に対する評価を、前記所定の受講状態の種類および/または前記所定の受講状態の受講者数に基づいて決定し出力する評価処理とを実行させる自動評価プログラム。 - 前記状態識別処理が、前記所定の受講状態として複数種類の受講状態を識別する処理であることを特徴とする請求項3記載の自動評価プログラム。
- 受講者の受講状態を示す情報に基づいて、講演を自動的に評価する方法であって、
受講者を含む場景を繰り返し撮影することにより得られた複数の画像について、該画像に含まれる受講者の顔情報を抽出し、該顔情報に基づいて、所定の受講状態の受講者を識別し、
受講状態ごとに識別された受講者の数を単位時間ごとに計測し、単位時間あたりの受講者の数を所定数と比較することにより、前記所定の受講状態の受講者数が前記所定数を超えた時間帯を検出し、
検出された時間帯の講演に対する評価を、前記所定の受講状態の種類および/または前記所定の受講状態の受講者数に基づいて決定し、出力する方法。 - 前記所定の受講状態として複数種類の受講状態を識別することを特徴とする請求項5記載の自動評価方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005288525A JP2007102344A (ja) | 2005-09-30 | 2005-09-30 | 自動評価装置、プログラムおよび方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005288525A JP2007102344A (ja) | 2005-09-30 | 2005-09-30 | 自動評価装置、プログラムおよび方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007102344A true JP2007102344A (ja) | 2007-04-19 |
Family
ID=38029252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005288525A Withdrawn JP2007102344A (ja) | 2005-09-30 | 2005-09-30 | 自動評価装置、プログラムおよび方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007102344A (ja) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101819687A (zh) * | 2010-04-16 | 2010-09-01 | 阜新力兴科技有限责任公司 | 一种人脸识别学生考勤装置及方法 |
JP2012168731A (ja) * | 2011-02-14 | 2012-09-06 | Fujitsu Ltd | 異常行動検出装置、プログラム及び方法、並びにユーザ管理システム |
WO2013039062A1 (ja) * | 2011-09-15 | 2013-03-21 | 国立大学法人大阪教育大学 | 顔分析装置、顔分析方法、及び記録媒体 |
JP2013164784A (ja) * | 2012-02-13 | 2013-08-22 | Fujitsu Ltd | 授業評価決定方法、授業評価決定プログラム及び授業評価決定装置 |
JP2016151730A (ja) * | 2015-02-19 | 2016-08-22 | 富士通株式会社 | 発表者選択支援プログラム、発表者選択支援方法、および情報処理装置 |
CN106652622A (zh) * | 2017-02-07 | 2017-05-10 | 广东小天才科技有限公司 | 一种课文训练方法和装置 |
JP2017102154A (ja) * | 2015-11-30 | 2017-06-08 | 京セラドキュメントソリューションズ株式会社 | 講義確認システム |
JP2018049482A (ja) * | 2016-09-21 | 2018-03-29 | 富士ゼロックス株式会社 | 評価システム、情報処理装置およびプログラム |
JP2018049481A (ja) * | 2016-09-21 | 2018-03-29 | 富士ゼロックス株式会社 | 情報処理装置、評価システムおよびプログラム |
JP2018155825A (ja) * | 2017-03-16 | 2018-10-04 | 日本電気株式会社 | 講義映像分析装置、講義映像分析システム、方法およびプログラム |
JP2019186780A (ja) * | 2018-04-12 | 2019-10-24 | 富士通株式会社 | ユーザ支援プログラム、ユーザ支援装置及びユーザ支援方法 |
CN111275345A (zh) * | 2020-01-22 | 2020-06-12 | 重庆大学 | 一种基于深度学习的课堂信息化评价及管理的系统及方法 |
JP2021018649A (ja) * | 2019-07-22 | 2021-02-15 | パナソニックi−PROセンシングソリューションズ株式会社 | 情報処理装置、出席状況管理方法、およびプログラム |
CN113783709A (zh) * | 2021-08-31 | 2021-12-10 | 深圳市易平方网络科技有限公司 | 基于会议系统的参会人员监测处理方法、装置、智能终端 |
JP7189097B6 (ja) | 2019-07-22 | 2022-12-13 | i-PRO株式会社 | 出席状況管理システム、出席状況管理方法、およびプログラム |
-
2005
- 2005-09-30 JP JP2005288525A patent/JP2007102344A/ja not_active Withdrawn
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101819687A (zh) * | 2010-04-16 | 2010-09-01 | 阜新力兴科技有限责任公司 | 一种人脸识别学生考勤装置及方法 |
JP2012168731A (ja) * | 2011-02-14 | 2012-09-06 | Fujitsu Ltd | 異常行動検出装置、プログラム及び方法、並びにユーザ管理システム |
WO2013039062A1 (ja) * | 2011-09-15 | 2013-03-21 | 国立大学法人大阪教育大学 | 顔分析装置、顔分析方法、及び記録媒体 |
JP2013061906A (ja) * | 2011-09-15 | 2013-04-04 | Osaka Kyoiku Univ | 顔分析装置、顔分析方法、及びプログラム |
JP2013164784A (ja) * | 2012-02-13 | 2013-08-22 | Fujitsu Ltd | 授業評価決定方法、授業評価決定プログラム及び授業評価決定装置 |
JP2016151730A (ja) * | 2015-02-19 | 2016-08-22 | 富士通株式会社 | 発表者選択支援プログラム、発表者選択支援方法、および情報処理装置 |
JP2017102154A (ja) * | 2015-11-30 | 2017-06-08 | 京セラドキュメントソリューションズ株式会社 | 講義確認システム |
JP2018049482A (ja) * | 2016-09-21 | 2018-03-29 | 富士ゼロックス株式会社 | 評価システム、情報処理装置およびプログラム |
JP2018049481A (ja) * | 2016-09-21 | 2018-03-29 | 富士ゼロックス株式会社 | 情報処理装置、評価システムおよびプログラム |
CN106652622B (zh) * | 2017-02-07 | 2019-09-17 | 广东小天才科技有限公司 | 一种课文训练方法和装置 |
CN106652622A (zh) * | 2017-02-07 | 2017-05-10 | 广东小天才科技有限公司 | 一种课文训练方法和装置 |
JP2018155825A (ja) * | 2017-03-16 | 2018-10-04 | 日本電気株式会社 | 講義映像分析装置、講義映像分析システム、方法およびプログラム |
JP7069550B2 (ja) | 2017-03-16 | 2022-05-18 | 日本電気株式会社 | 講義映像分析装置、講義映像分析システム、方法およびプログラム |
JP2019186780A (ja) * | 2018-04-12 | 2019-10-24 | 富士通株式会社 | ユーザ支援プログラム、ユーザ支援装置及びユーザ支援方法 |
JP7056339B2 (ja) | 2018-04-12 | 2022-04-19 | 富士通株式会社 | ユーザ支援プログラム、ユーザ支援装置及びユーザ支援方法 |
JP2021018649A (ja) * | 2019-07-22 | 2021-02-15 | パナソニックi−PROセンシングソリューションズ株式会社 | 情報処理装置、出席状況管理方法、およびプログラム |
JP7189097B6 (ja) | 2019-07-22 | 2022-12-13 | i-PRO株式会社 | 出席状況管理システム、出席状況管理方法、およびプログラム |
JP7189097B2 (ja) | 2019-07-22 | 2022-12-13 | i-PRO株式会社 | 出席状況管理システム、出席状況管理方法、およびプログラム |
US11694482B2 (en) | 2019-07-22 | 2023-07-04 | i-PRO Co., Ltd. | Information processing device and attendance state management method |
CN111275345A (zh) * | 2020-01-22 | 2020-06-12 | 重庆大学 | 一种基于深度学习的课堂信息化评价及管理的系统及方法 |
CN111275345B (zh) * | 2020-01-22 | 2023-08-08 | 重庆大学 | 一种基于深度学习的课堂信息化评价及管理的系统及方法 |
CN113783709A (zh) * | 2021-08-31 | 2021-12-10 | 深圳市易平方网络科技有限公司 | 基于会议系统的参会人员监测处理方法、装置、智能终端 |
CN113783709B (zh) * | 2021-08-31 | 2024-03-19 | 重庆市易平方科技有限公司 | 基于会议系统的参会人员监测处理方法、装置、智能终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007102344A (ja) | 自動評価装置、プログラムおよび方法 | |
JP4704174B2 (ja) | 状態識別装置、プログラムおよび方法 | |
Atoum et al. | Automated online exam proctoring | |
US8532737B2 (en) | Real-time video based automated mobile sleep monitoring using state inference | |
JP4304337B2 (ja) | インタフェース装置 | |
US20110144517A1 (en) | Video Based Automated Detection of Respiratory Events | |
WO2017018012A1 (ja) | 情報処理システム、情報処理方法、および記録媒体 | |
JP7094814B2 (ja) | 検出システム、および検出方法 | |
JP2013061906A (ja) | 顔分析装置、顔分析方法、及びプログラム | |
JP6859640B2 (ja) | 情報処理装置、評価システムおよびプログラム | |
CN111707375B (zh) | 一种具备智能测温考勤和异常行为检测的电子班牌 | |
US11694482B2 (en) | Information processing device and attendance state management method | |
CN110740298A (zh) | 分布式教室违纪行为检测系统、方法及介质 | |
CN110490173A (zh) | 一种基于3d体感模型的智能动作打分系统 | |
JP2009267621A (ja) | 通信装置 | |
JP6819194B2 (ja) | 情報処理システム、情報処理装置およびプログラム | |
JP6354444B2 (ja) | 評価方法、評価プログラムおよび情報処理装置 | |
WO2021065694A1 (ja) | 情報処理システム及び方法 | |
CN108937970A (zh) | 一种评测情感状态的方法及装置 | |
Ronzhin et al. | A software system for the audiovisual monitoring of an intelligent meeting room in support of scientific and education activities | |
JP6859641B2 (ja) | 評価システム、情報処理装置およびプログラム | |
JP7001429B2 (ja) | 関心度計測システムおよび方法 | |
JP2006260095A (ja) | 講義支援システム、講義支援方法及び講義支援用コンピュータプログラム。 | |
CN106851200A (zh) | 调整教室监控摄像机的镜头的方法及装置 | |
JP2004129703A (ja) | 睡眠認識装置及び認識方法、並びに、睡眠状態通知装置及びこれを用いた遠隔教育システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20081202 |