JP2018155825A - 講義映像分析装置、講義映像分析システム、方法およびプログラム - Google Patents

講義映像分析装置、講義映像分析システム、方法およびプログラム Download PDF

Info

Publication number
JP2018155825A
JP2018155825A JP2017050800A JP2017050800A JP2018155825A JP 2018155825 A JP2018155825 A JP 2018155825A JP 2017050800 A JP2017050800 A JP 2017050800A JP 2017050800 A JP2017050800 A JP 2017050800A JP 2018155825 A JP2018155825 A JP 2018155825A
Authority
JP
Japan
Prior art keywords
student
video
lecture
understanding
lecture video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017050800A
Other languages
English (en)
Other versions
JP7069550B2 (ja
Inventor
千聡 大川
Chisato Okawa
千聡 大川
良彰 廣谷
Yoshiaki Hiroya
良彰 廣谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2017050800A priority Critical patent/JP7069550B2/ja
Publication of JP2018155825A publication Critical patent/JP2018155825A/ja
Application granted granted Critical
Publication of JP7069550B2 publication Critical patent/JP7069550B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】講義映像における任意の時間的範囲の内容について、受講者の理解度を評価する技術を提供すること。【解決手段】講義映像を視聴する受講者が撮影された受講者映像について、任意の時間的範囲に映された受講者の講義に対する反応を認識する受講者反応認識部11と、認識された受講者の反応が肯定的または否定的である程度に基づいて、受講者の講義に対する理解度を推定する理解度推定部12と、講義映像が受講者に提示される際に再生が制御された内容を表す再生制御情報を取得する再生制御情報取得部13と、推定された理解度と、理解度が推定された受講者映像の時間的範囲と、再生制御情報とに基づいて、受講者の理解が理解度である講義映像の時間的範囲に関する情報を求める講義映像分析部14と、を備える。【選択図】 図1

Description

本発明は、映像授業サービスの評価を行う技術に関する。
講義を表す講義映像を受講者に提示することにより授業を行う映像授業サービスが知られている。映像授業サービスでは、講義に対する受講者の反応や講義内容をどのように評価するかが問題となる。
例えば、一般的には、講義内容を確認するためのテストや、講義内容に対するアンケートの実施により、受講者の反応や講義内容を評価する方法がある。ところが、一般的なテストによる評価方法は、採点に時間コストが発生するという問題がある。また、採点処理を自動化することも考えられるが、その場合、テスト内容が、自動採点に適した内容に限定され、充分な評価結果が得られないことがある。また、テストの作成は自動化が難しいため、テストの作成自体に時間的なコストが発生するという問題がある。また、テストによる評価方法は、講義映像における問題箇所の特定には向いていない。また、一般的なアンケートによる評価方法は、客観的な評価に用いることが難しい。
そこで、このような映像授業サービスの評価に関連する技術が、特許文献1に記載されている。特許文献1に記載された関連技術は、受講者が撮影された受講者映像から利用者の動作を認識し、認識結果に基づいて、利用者の学習態度を評価する。また、この関連技術は、講義を表す講義映像の中に、利用者の理解度を判定するための所定の問題をあらかじめ含めておく。そして、この関連技術は、そのような所定の問題に対する利用者の応答を受講者映像から取得し、応答内容に基づいて利用者の理解度を判定する。
また、このような映像授業サービスの評価に関連する他の技術が、特許文献2に記載されている。特許文献2に記載された関連技術は、受講者映像から抽出した顔情報に基づいて、「頷く」「居眠り」など所定の受講状態の受講者を識別する。そして、この関連技術は、所定の受講状態の受講者数が所定数を超えた時間帯を検出し、検出された時間帯について講義に対する評価を出力する。
また、このような映像授業サービスの評価に関連する他の技術が、特許文献3に記載されている。特許文献3に記載された関連技術は、受講者映像から受講者の視線方向を示す特徴データを収集する。そして、この関連技術は、この特徴データに統計処理を施して集中度を算出し、講師側の端末に表示する。また、この関連技術は、各受講者別の集中度に基づいて、受講者側の端末において、講義映像の再生速度を制御したり、集中度に適した難易度別の講義映像を再生したりする。
また、このような映像授業サービスの評価に関連する他の技術が、特許文献4に記載されている。特許文献4に記載された関連技術は、受講者映像から、複数の時点における受講者の顔を認識して分析し、分析結果に基づいて講義を評価する。分析項目としては、例えば、表情、顔の向き、視線方向等が挙げられている。また、講義の評価内容としては、分析結果の分析項目別の顔の数や集計結果やその比率から、講義を受ける受講者に対する評価や、講義内容に対する評価などが挙げれらている。
また、このような映像授業サービスの評価に関連する他の技術が、特許文献5に記載されている。特許文献5に記載された関連技術は、受講者の学習活動に関する履歴に基づいて、各受講者の重み値を決定する。そして、この関連技術は、各受講者からの授業満足度調査結果を、各受講者の重み値に基づいて補正する。
特開2003−228272号公報 特開2007−102344号公報 特開2009−258175号公報 特開2013−61906号公報 特開2014−238649号公報
上述したような映像授業サービスでは、講義映像における任意の時間的範囲の内容について、受講者の理解度を評価することが重要である。例えば、ある時間的範囲の内容について受講者の理解度が低いことがわかれば、その受講者に対してその内容に関する理解を深めるための各種のサポートを行うことが考えられるからである。また、ある時間的範囲の内容について多くの受講者の理解度が低いことがわかれば、講義映像におけるその時間的範囲の内容を改善するようフィードバックすることができるからである。しかしながら、上述した特許文献1〜特許文献5に記載された関連技術には、以下の課題がある。
特許文献1に記載された関連技術は、受講者の動作に基づいてその学習態度を評価するが、学習態度が良好であっても理解度が低い場合もあると考えられる。つまり、学習態度の評価は、必ずしも理解度の評価に結び付かない。そこで、この関連技術は、理解度を評価するためのテスト問題をあらかじめ用意して講義映像に含めておき、そのテスト問題に対する受講者の応答に基づいて理解度を評価する。しかしながら、テスト問題の作成自体に時間的なコストが発生するという点では、一般的なテストによる評価方法と変わらない。また、テスト問題は、講義内容のうち、理解度の評価対象としたい部分の内容について作成されると考えられる。したがって、このようなテスト問題を用いて、講義映像における任意の時間的範囲の内容について、受講者の理解度を評価することは難しい。
また、特許文献2に記載された関連技術は、所定の受講状態の受講者数を時間帯毎に算出するが、所定の受講状態の受講者数からは、各受講者の理解度を評価することはできないという問題がある。このように、この関連技術は、講義映像における任意の時間的範囲の内容について、受講者の理解度を評価することは難しい。
また、特許文献3に記載された関連技術は、受講者別にその集中度に基づき講義映像の再生制御や内容制御を行うものの、集中度が高くても理解度が低い場合もあると考えられる。つまり、集中度の評価は、必ずしも理解度の評価に結び付かない。そのため、この関連技術は、講義映像のある時間的範囲に対して、ある受講者の集中度が高いが理解度が低い場合でも、その受講者に対して、講義映像の再生スピードを速くしたり、難易度の高い講義映像を提示したりしてしまう可能性がある。このように、この関連技術は、講義映像における任意の時間的範囲の内容について、受講者の理解度を評価することは難しい。
また、特許文献4に記載された関連技術は、受講者の顔分析結果から受講者そのものや講義内容を評価するものの、各受講者の理解度を評価していない。このように、この関連技術は、講義映像における任意の時間的範囲の内容について、受講者の理解度を評価することは難しい。
また、特許文献5に記載された関連技術は、各受講者に対して重み値を付与することで、授業満足度調査結果を補正するものの、講義映像における任意の時間的範囲の内容について、受講者の理解度を評価することについては記載がない。
本発明は、上述の課題を解決するためになされたものである。すなわち、本発明は、講義映像における任意の時間的範囲の内容について、受講者の理解度を評価する技術を提供することを目的とする。
本発明の講義映像分析装置は、講義を表す講義映像を視聴する受講者が撮影された受講者映像について、前記受講者映像の任意の時間的範囲に映された前記受講者の前記講義に対する反応を認識する受講者反応認識部と、前記受講者反応認識部によって認識された前記受講者の反応が肯定的または否定的である程度に基づいて、前記受講者映像の前記時間的範囲における前記受講者の前記講義に対する理解の程度を表す理解度を推定する理解度推定部と、前記講義映像が前記受講者に提示される際に再生が制御された内容を表す再生制御情報を取得する再生制御情報取得部と、前記理解度推定部により推定された前記理解度と、前記理解度が推定された前記受講者映像の前記時間的範囲と、前記再生制御情報とに基づいて、前記受講者の理解が前記理解度である前記講義映像の時間的範囲に関する情報を求める講義映像分析部と、を備える。
また、本発明の講義映像分析システムは、上述の講義映像分析装置と、前記講義映像を前記受講者に提示する際に前記再生制御情報を記録して前記講義映像分析装置に出力する講義映像提示システムと、前記講義映像を視聴する前記受講者を撮像装置を用いて撮影することにより前記受講者映像を記録して前記講義映像分析装置に出力する受講者撮影システムと、を含む。
また、本発明の方法は、コンピュータ装置が、講義を表す講義映像を視聴する受講者が撮影された受講者映像について、前記受講者映像の任意の時間的範囲に映された前記受講者の前記講義に対する反応を認識し、認識した前記受講者の反応が肯定的または否定的である程度に基づいて、前記受講者映像の前記時間的範囲における前記受講者の前記講義に対する理解の程度を表す理解度を推定し、前記講義映像が前記受講者に提示される際に再生が制御された内容を表す再生制御情報を取得し、推定した前記理解度と、前記理解度が推定された前記受講者映像の前記時間的範囲と、前記再生制御情報とに基づいて、前記受講者の理解が前記理解度である前記講義映像の時間的範囲に関する情報を求める。
また、本発明の他の方法は、コンピュータ装置が、講義映像を受講者に提示する際に、再生が制御された内容を表す再生制御情報を記録し、前記講義映像を視聴する前記受講者を撮像装置を用いて撮影することにより受講者映像を記録し、前記受講者映像の任意の時間的範囲に映された前記受講者の前記講義に対する反応を認識し、認識した前記受講者の反応が肯定的または否定的である程度に基づいて、前記受講者映像の前記時間的範囲における前記受講者の前記講義に対する理解の程度を表す理解度を推定し、推定した前記理解度と、前記理解度が推定された前記受講者映像の前記時間的範囲と、前記再生制御情報とに基づいて、前記受講者の理解が前記理解度である前記講義映像の時間的範囲に関する情報を求める。
また、本発明のプログラムは、講義を表す講義映像を視聴する受講者が撮影された受講者映像について、前記受講者映像の任意の時間的範囲に映された前記受講者の前記講義に対する反応を認識する受講者反応認識ステップと、前記受講者反応認識ステップによって認識された前記受講者の反応が肯定的または否定的である程度に基づいて、前記受講者映像の前記時間的範囲における前記受講者の前記講義に対する理解の程度を表す理解度を推定する理解度推定ステップと、前記講義映像が前記受講者に提示される際に再生が制御された内容を表す再生制御情報を取得する再生制御情報取得ステップと、前記理解度推定ステップにより推定された前記理解度と、前記理解度が推定された前記受講者映像の前記時間的範囲と、前記再生制御情報とに基づいて、前記受講者の理解が前記理解度である前記講義映像の時間的範囲に関する情報を求める講義映像分析ステップと、をコンピュータ装置に実行させる。
本発明は、講義映像における任意の時間的範囲の内容について、受講者の理解度を評価する技術を提供することができる。
本発明の第1の実施の形態としての講義映像分析装置の構成を示すブロック図である。 本発明の第1の実施の形態としての講義映像分析装置のハードウェア構成の一例を示す図である。 本発明の第1の実施の形態としての講義映像分析装置の動作を説明するフローチャートである。 本発明の第2の実施の形態としての講義映像分析システムの構成を示すブロック図である。 本発明の第2の実施の形態としての講義映像分析システムのハードウェア構成の一例を示す図である。 本発明の第3の実施の形態としての講義映像分析システムの構成を示すブロック図である。 本発明の第3の実施の形態における受講者撮影システムの動作を説明するフローチャートである。 本発明の第3の実施の形態における講義映像提示システムの動作を説明するフローチャートである。 本発明の第3の実施の形態における講義映像分析装置の動作を説明するフローチャートである。 本発明の第4の実施の形態としての講義映像分析システムの構成を示すブロック図である。 本発明の第4の実施の形態における講義映像分析装置の動作を説明するフローチャートである。
以下、本発明の実施の形態について、図面を参照して詳細に説明する。
(第1の実施の形態)
本発明の第1の実施の形態としての講義映像分析装置10の機能ブロック構成を図1に示す。図1において、講義映像分析装置10は、受講者反応認識部11と、理解度推定部12と、再生制御情報取得部13と、講義映像分析部14とを備える。
また、図1に示すように、講義映像分析装置10は、外部から、受講者映像を取得可能に構成される。受講者映像とは、講義映像を視聴する受講者が撮影された映像である。なお、本実施の形態では、受講者映像には、1人の受講者が映され、他の受講者は映されてていないものとする。
また、図1に示すように、講義映像分析装置10は、外部から再生制御情報を取得可能に構成される。再生制御情報とは、講義映像が受講者によって視聴される際に再生が制御された内容を表す情報である。例えば、再生制御情報は、再生の開始、終了、一時停止、早送り、または、巻き戻し等が実行された時間に関する情報を含む。
ここで、講義映像分析装置10は、図2に示すようなハードウェア要素によって構成可能である。図2において、講義映像分析装置10は、CPU(Central Processing Unit)1001、メモリ1002、出力装置1003、入力装置1004、および、ネットワークインタフェース1005を含むコンピュータ100によって構成される。メモリ1002は、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)等によって構成される。出力装置1003は、ディスプレイ装置やプリンタ等のように、情報を出力する装置によって構成される。入力装置1004は、キーボードやマウス等のように、ユーザ操作の入力を受け付ける装置によって構成される。ネットワークインタフェース1005は、インターネット、LAN(Local Area Network)、公衆回線網、無線通信網またはこれらの組合せ等によって構成されるネットワークに接続するインタフェースである。この場合、各機能ブロックは、メモリ1002に格納されるコンピュータ・プログラムを読み込んで実行するとともに出力装置1003、入力装置1004、ネットワークインタフェース1005の各部を制御するCPU1001によって構成される。なお、講義映像分析装置10およびその各機能ブロックのハードウェア構成は、上述の構成に限定されない。
次に、各機能ブロックの詳細について説明する。
受講者反応認識部11は、前述の受講者映像を外部から取得する。そして、受講者反応認識部11は、取得した受講者映像について、その受講者映像の任意の時間的範囲に映された受講者の講義に対する反応を認識する。認識する対象となる受講者の反応は、あらかじめ定められていてもよい。そのような受講者の反応としては、例えば、講義に対する理解に関わる行動または表情等がある。そのような行動としては、寝る、離席する、頷く、首を縦または横に振る等の行動が挙げられる。また、そのような表情としては、怪訝な表情、笑顔等が挙げられる。なお、映像に映された人物の行動または表情を認識する技術については、各種公知の技術を適用可能である。
理解度推定部12は、受講者反応認識部11によって認識された受講者の反応が肯定的または否定的である程度に基づいて、その反応が認識された受講者映像の時間的範囲における受講者の理解度を推定する。理解度とは、該当する時間的範囲に対応する講義の内容に対するその受講者の理解の程度を表す情報である。
なお、認識された受講者の反応に基づいて、講義の内容に対して肯定的または否定的である程度を導き出すための情報が、あらかじめ定められているものとする。例えば、反応(例えば、行動や表情)の種類に対して、その反応の内容がより肯定的であると考えられるほど大きく、より否定的であると考えられるほど小さな数値が関連付けられて記憶されていてもよい。その場合、理解度推定部12は、認識された受講者の反応の種類に対して、関連付けられた数値を理解度として推定すればよい。ただし、理解度の推定処理には、反応の種類に対して理解度となる数値を関連付けておく手法に限らず、識別された反応から理解度を導出することができればその他の手法を適用可能である。
再生制御情報取得部13は、前述の再生制御情報を外部から取得する。
講義映像分析部14は、理解度推定部12により推定された理解度と、その理解度が推定された受講者映像の時間的範囲と、再生制御情報とに基づいて、講義映像を分析する。具体的には、講義映像分析部14は、分析により、その受講者の理解が推定された理解度である講義映像の時間的範囲に関する情報を求める。例えば、講義映像分析部14は、推定された理解度が所定条件を満たす講義映像の時間的範囲を特定してもよい。
以上のように構成された講義映像分析装置10の動作について、図3を参照して説明する。
まず、受講者反応認識部11は、講義映像を視聴する受講者が撮影された受講者映像を、外部から取得する(ステップS1)。
次に、再生制御情報取得部13は、当該講義映像に関する再生制御情報を、外部から取得する(ステップS2)。なお、ステップS1およびS2の実行順序は順不同である。
次に、受講者反応認識部11は、受講者映像について、その受講者映像の任意の時間的範囲に映された受講者の講義に対する反応を認識する(ステップS3)。
次に、理解度推定部12は、認識された反応が講義内容に対して肯定的または否定的である程度に基づいて、その反応が認識された受講者映像の時間的範囲における受講者の理解度を推定する(ステップS4)。
次に、講義映像分析部14は、推定された理解度と、その理解度が推定された受講者映像の時間的範囲と、再生制御情報とに基づいて、受講者の理解が推定された理解度である講義映像の時間的範囲に関する情報を求める(ステップS5)。
そして、講義映像分析部14は、ステップS5で求めた講義映像の時間的範囲に関する情報を出力する(ステップS6)。出力先は、例えば、出力装置1003であってもよい。また、出力先は、メモリ1002であってもよい。また、出力先は、ネットワークインタフェース1005を介して接続された他の装置であってもよい。
以上で、講義映像分析装置10は、動作を終了する。
次に、本発明の第1の実施の形態の効果について述べる
本発明の第1の実施の形態としての講義映像分析装置は、講義映像における任意の時間的範囲の内容について、受講者の理解度を評価することができる。
その理由について説明する。本実施の形態では、受講者反応認識部が、講義を表す講義映像を視聴する受講者が撮影された受講者映像について、受講者映像の任意の時間的範囲に映された受講者の講義に対する反応を認識する。そして、理解度推定部が、受講者反応認識部によって認識された受講者の反応が肯定的または否定的である程度に基づいて、受講者映像の前述の時間的範囲における受講者の講義に対する理解度を推定する。そして、再生制御情報取得部が、講義映像が受講者に提示される際に再生が制御された内容を表す再生制御情報を取得する。そして、講義映像分析部が、推定された理解度と、その理解度が推定された受講者映像の時間的範囲と、再生制御情報とに基づいて、受講者の理解が推定された理解度である講義映像の時間的範囲に関する情報を求めるからである。
このように、本実施の形態は、受講者の理解度を評価し、評価した理解度が適用される講義映像の時間的範囲に関する情報を求める。その結果、本実施の形態を用いれば、求めた講義映像の時間的範囲に関する情報を、受講者のフォローに用いたり、講義映像の内容改善に役立てることができる。
(第2の実施の形態)
次に、本発明の第2の実施の形態について図面を参照して詳細に説明する。本実施の形態では、本発明の第1の実施の形態としての講義映像分析装置を含む講義映像分析システムについて説明する。なお、本実施の形態の説明において参照する各図面において、本発明の第1の実施の形態と同一の構成および同様に動作するステップには同一の符号を付して本実施の形態における詳細な説明を省略する。
まず、本発明の第2の実施の形態としての講義映像分析システム2の機能ブロック構成を図4に示す。図4において、講義映像分析システム2は、本発明の第1の実施の形態としての講義映像分析装置10と、講義映像提示システム80と、受講者撮影システム90とを含む。
ここで、講義映像分析システム2は、図5に示すようなハードウェア要素によって構成可能である。図5において、講義映像分析システム2は、サーバ210と、端末220と、撮像装置230とからなる。
サーバ210は、CPU2101と、メモリ2102と、出力装置2103と、入力装置2104と、ネットワークインタフェース2105とを含むコンピュータ装置によって構成される。メモリ2102は、RAM、ROM、補助記憶装置等によって構成される。出力装置2103は、ディスプレイ装置やプリンタ等のように、情報を出力する装置によって構成される。入力装置2104は、キーボードやマウス等のように、ユーザ操作の入力を受け付ける装置によって構成される。ネットワークインタフェース2105は、インターネット、LAN、公衆回線網、無線通信網またはこれらの組合せ等によって構成されるネットワークに接続するインタフェースである。
端末220は、CPU2201と、メモリ2202と、出力装置2203と、入力装置2204と、ネットワークインタフェース2205と、周辺機器接続インタフェース2206とを含むコンピュータ装置によって構成される。メモリ2202は、RAM、ROM、補助記憶装置等によって構成される。出力装置2203は、ディスプレイ装置やプリンタ等のように、情報を出力する装置によって構成される。入力装置2204は、キーボードやマウス等のように、ユーザ操作の入力を受け付ける装置によって構成される。ネットワークインタフェース2205は、インターネット、LAN、公衆回線網、無線通信網またはこれらの組合せ等によって構成されるネットワークに接続するインタフェースである。
撮像装置230は、周囲を撮影して映像として保存する機能を有し、端末220の周辺機器接続インタフェース2206に接続される。
この場合、講義映像分析装置10は、サーバ210によって構成される。
また、講義映像提示システム80は、サーバ210と、端末220とによって構成される。
また、受講者撮影システム90は、端末220と、撮像装置230とによって構成される。
ただし、講義映像分析システム2のハードウェア構成は、上述の構成に限定されない。
講義映像提示システム80は、講義映像を受講者に提示する際に再生制御情報を記録する。また、講義映像提示システム80は、記録した再生制御情報を講義映像分析装置10に出力する。
具体的には、講義映像提示システム80は、メモリ2102に記憶されたプログラムを読み込んでCPU2101が実行することにより、メモリ2102に記憶された講義映像を、ネットワークインタフェース2105を介して端末220に配信する。また、端末220は、メモリ2202に記憶されたプログラムを読み込んでCPU2201が実行することにより、ネットワークインタフェース2205を介して受信した講義映像を出力装置2203に出力して再生する。また、端末220は、メモリ2202に記憶されたプログラムを読み込んでCPU2201が実行し出力装置2203および入力装置2204を制御することにより、講義映像の再生を制御するユーザインタフェースを提供する。そして、端末220は、ユーザインタフェースを介して入力される情報に基づいて、講義映像の再生を制御しながら出力装置2203に出力する。
受講者撮影システム90は、講義映像を視聴する受講者を撮影することにより受講者映像を記録する。なお、本実施の形態では、受講者撮影システム90が撮影する空間には、1人の受講者が存在し、複数の受講者が存在しないことを前提とする。また、受講者撮影システム90は、記録した受講者映像を講義映像分析装置10に出力する。
具体的には、受講者撮影システム90は、メモリ2202に記憶されたプログラムを読み込んでCPU2201が実行することにより、端末220で再生されている講義映像を視聴する受講者が存在し得る空間を撮影するよう、撮像装置230を制御する。また、受講者撮影システム90は、メモリ2202に記憶されたプログラムを読み込んでCPU2201が実行することにより、撮像装置230により記録された映像を受講者映像として、ネットワークインタフェース2205を介してサーバ210に送信する。
講義映像分析装置10の各機能ブロックは、本発明の第1の実施の形態で説明したように構成され、動作する。
以上で、本発明の第2の実施の形態の構成および動作の説明を終了する。
次に、本発明の第2の実施の形態の効果について述べる。本発明の第2の実施の形態は、講義映像における任意の時間的範囲の内容について、受講者の理解度を評価することができる。その理由は、本発明の第1の実施の形態で述べたとおりである。
(第3の実施の形態)
次に、本発明の第3の実施の形態について図面を参照して詳細に説明する。なお、本実施の形態の説明において参照する各図面において、本発明の第2の実施の形態と同一の構成および同様に動作するステップには同一の符号を付して本実施の形態における詳細な説明を省略する。
まず、本発明の第3の実施の形態としての講義映像分析システム3の機能ブロック構成を図6に示す。図6において、講義映像分析システム3は、本発明の第2の実施の形態に対して、講義映像分析装置10に替えて、講義映像分析装置30を含む点が異なる。講義映像分析装置30は、本発明の第1の実施の形態としての講義映像分析装置10に対して、理解度推定部12に替えて理解度推定部32と、講義映像分析部14に替えて講義映像分析部34とを備える点が異なる。また、講義映像分析部34は、受講理解情報生成部341と、個人毎分析部342と、講義毎分析部343とを有する。また、さらに、受講者情報格納部35と、受講理解情報格納部36とを備える点も異なる。
なお、講義映像分析システム3のハードウェア構成は、図5を参照して説明した本発明の第2の実施の形態と同様のハードウェア要素によって構成可能である。ただし、講義映像分析システム3のハードウェア構成は、上述の構成に限定されない。
次に、講義映像分析装置30を構成する要素のうち、本発明の第2の実施の形態と異なる要素について詳細に説明する。
受講者情報格納部35は、受講者毎に受講者情報を格納する。受講者情報は、その受講者の講義に対する反応の傾向を表す特性データを含む。特性データは、例えば、頷く傾向の高さを表す情報や、理解したときまたは理解できないときの表情の特徴を表す情報等を含んでいてもよい。また、受講者情報は、その受講者に関する他の情報を含んでいてもよい。例えば、受講者情報は、その受講者を特定する氏名等の個人情報や、その受講者が受講可能な講義等を表す受講情報を含んでいてもよい。
受講理解情報格納部36は、受講者情報格納部35に登録されている各受講者について、受講理解情報を格納する。受講理解情報の詳細については後述する。
理解度推定部32は、受講者反応認識部11によって認識された受講者の反応が肯定的または否定的である程度と、当該受講者の特性データとに基づいて、その反応が認識された時間的範囲における受講者の理解度を推定する。なお、理解度推定部32は、当該受講者の特性データを、受講者情報格納部35を参照することにより取得すればよい。
例えば、本発明の第1の実施の形態において説明したように、反応の種類に対して、肯定的または否定的である程度を表す数値が関連付けられて記憶されているとする。この場合に、認識された受講者の反応が「頷く」という行動であり、かつ、その受講者の特性データとして「頷く傾向の高さ」を表す情報が記憶されていることを想定する。このとき、理解度推定部32は、「頷く」という行動に対して関連付けられた理解度の数値に対して、その受講者の頷く傾向がより高いほどより少ない加点を施した数値を、理解度として推定する。換言すると、理解度推定部32は、「頷く」という行動に対して関連付けられた理解度の数値に対して、その受講者の頷く傾向がより低いほどより多い加点を施した数値を、理解度として推定する。なお、この場合、特性データに応じて加点する値については、あらかじめ定められているものとする。
受講理解情報生成部341は、受講理解情報を生成して受講理解情報格納部36に格納する。ここで、受講理解情報は、ある受講者について、推定された理解度と、その理解度が推定された受講者映像の時間的範囲と、再生制御情報とに基づく情報である。例えば、受講理解情報は、受講者の識別情報と、視聴された講義映像の識別情報と、理解度と、受講者映像の時間的範囲と、再生制御情報とを関連付けた情報であってもよい。
個人毎分析部342は、受講者毎に、該受講者の理解度が所定条件を満たす講義映像の時間的範囲を特定する。所定条件とは、例えば、理解度の範囲を指定する条件であってもよい。
具体的には、個人毎分析部342は、受講理解情報格納部36を参照し、その受講者の受講理解情報に含まれる受講者映像の時間的範囲と再生制御情報とを、講義映像の時間軸と照合する。照合により、個人毎分析部342は、理解度が推定された受講者映像の時間的範囲に対応する講義映像の時間的範囲を特定する。なお、個人毎分析部342は、特定した講義映像の時間的範囲を、該当する受講理解情報に含めて、受講理解情報格納部36を更新してもよい。そして、個人毎分析部342は、受講者毎に、理解度が所定条件を満たす受講理解情報を抽出し、抽出した受講理解情報に含まれる講義映像の時間的範囲を特定すればよい。
講義毎分析部343は、講義映像毎に、該講義映像を視聴した1人以上の受講者の理解度が所定条件を満たす時間的範囲を特定する。所定条件とは、所定範囲の理解度の受講者数に対する条件であってもよい。例えば、そのような所定条件としては、理解度が閾値未満の受講者数が閾値以上である、等の条件が適用可能である。
具体的には、講義毎分析部343は、個人毎分析部342の分析処理内容を参照してもよい。例えば、個人毎分析部342によって、理解度が推定された受講者映像の時間的範囲に対応する講義映像の時間的範囲が、受講理解情報に含まれるよう受講理解情報格納部36が更新されているとする。この場合、講義毎分析部343は、受講理解情報格納部36を参照し、同一の講義映像の同一の時間的範囲について、理解度が所定範囲に含まれる受講理解情報を抽出する。そして、講義毎分析部343は、抽出した受講理解情報の数が所定条件を満たす講義映像の時間的範囲を特定してもよい。なお、同一の時間的範囲とは、完全に同一の範囲でなくてもよく、互いに少なくとも一部が重複した時間的範囲であってもよい。
以上のように構成された講義映像分析システム3の動作について、図面を参照して説明する。
まず、講義映像提示システム80の動作を図7に示す。
図7では、まず、講義映像提示システム80は、講義映像の再生を開始する(ステップA1)。
次に、講義映像提示システム80は、入力される制御内容に応じて講義映像の再生を制御しながら、再生制御情報を記録する(ステップA2)。
次に、講義映像提示システム80は、講義映像の再生を終了する(ステップA3)。
次に、講義映像提示システム80は、再生制御情報を、講義映像分析装置30に対して出力する(ステップA4)。
以上で、講義映像提示システム80は動作を終了する。
次に、受講者撮影システム90の動作を図8に示す。
図8では、まず、受講者撮影システム90は、講義映像の再生が開始されたことを検出すると(ステップB1でYes)、講義映像を視聴する受講者が存在する空間の撮影を開始する(ステップB2)。
次に、受講者撮影システム90は、講義映像の再生が終了されたことを検出すると(ステップB3でYes)、撮影を終了する(ステップB4)。
次に、受講者撮影システム90は、撮影した映像を受講者映像として、講義映像分析装置30に対して出力する(ステップB5)。
以上で、受講者撮影システム90は動作を終了する。
次に、講義映像分析装置30の動作を図9に示す。
図9では、まず、受講者反応認識部11は、講義映像の再生に応じて撮影された受講者映像を、受講者撮影システム90から取得する(ステップS11)。
次に、再生制御情報取得部13は、当該講義映像に関する再生制御情報を、講義映像提示システム80から取得する(ステップS12)。
なお、ステップS11およびS12の実行順序は順不同である。また、ステップS11およびステップS12において、講義映像分析装置30は、講義映像提示システム80または受講者撮影システム90に要求することにより、再生制御情報または受講者映像を取得してもよい。あるいは、講義映像分析装置30は、講義映像提示システム80または受講者撮影システム90からの受講者映像および再生制御情報の受信を待機し、双方の受信が完了した後に、次のステップの実行に進んでもよい。
次に、受講者反応認識部11は、本発明の第1の実施の形態と同様にステップS3を実行する。これにより、受講者映像の任意の時間的範囲に映された受講者の講義に対する反応が認識される。
次に、理解度推定部32は、認識された反応が講義内容に対して肯定的または否定的である程度と、当該受講者の特性データとに基づいて、その反応が認識された時間的範囲における受講者の理解度を推定する(ステップS14)。
次に、受講理解情報生成部341は、講義映像を視聴した受講者について、推定された理解度と、その理解度が推定された受講者映像の時間的範囲と、再生制御情報とに基づく受講理解情報を生成し、受講理解情報格納部36に格納する(ステップS15)。
次に、個人毎分析部342は、受講理解情報格納部36を参照することにより、該当する受講者について、理解度が所定条件を満たす講義映像の時間的範囲を特定する(ステップS16)。
次に、講義毎分析部343は、受講理解情報格納部36を参照することにより、該当する講義映像について、理解度が所定条件を満たす講義映像の時間的範囲を特定する(ステップS17)。
そして、講義映像分析部34は、ステップS16での受講者毎の分析結果と、ステップS17での講義映像毎の分析結果とをそれぞれ表す情報を出力する(ステップS18)。
出力先は、例えば、出力装置1003であってもよい。また、出力先は、メモリ1002であってもよい。また、出力先は、ネットワークインタフェース1005を介して接続された他の装置であってもよい。
以上で、講義映像分析装置30は、動作を終了する。
次に、本発明の第3の実施の形態の効果について述べる。
本発明の第3の実施の形態としての講義映像分析システムは、講義映像における任意の時間的範囲の内容について、受講者の理解度をより精度よく評価することができる。
その理由について説明する。本実施の形態では、本発明の第2の実施の形態と同様の構成に加えて、次の構成を備えるからである。すなわち、講義映像分析装置の理解度推定部が、受講者反応認識部によって認識された反応について、受講者の反応の傾向を表す特性データをさらに考慮して、受講者映像の任意の時間的範囲における受講者の理解度を推定するからである。
このように、本実施の形態は、受講者映像において認識された受講者の反応について、一般的に肯定的または否定的であると考えられる程度を理解度として画一的に適用するのではなく、その受講者の特性データをさらに考慮して理解度を推定する。したがって、例えば、本実施の形態は、頷く傾向の高い受講者が、講義映像のある時間的範囲について実際は理解が充分でないにも関わらず頷く反応を見せている場合には、その時間的範囲についての理解度を相対的に低く評価することができる。また、例えば、本実施の形態は、頷く傾向の低い受講者が、講義映像のある時間的範囲について充分に理解したことにより若干の頷く反応を見せた場合には、その時間的範囲についての理解度を相対的に高く評価することができる。
また、本発明の第3の実施の形態の他の効果について述べる。
本発明の第3の実施の形態としての講義映像分析システムは、受講者の理解度向上および講義映像の品質改善のための情報を提供することができる。
その理由について説明する。本実施の形態では、本発明の第2の実施の形態と同様の構成に加えて、次の構成を備えるからである。すなわち、講義映像分析装置の講義映像分析部が、受講者毎に、受講者の理解度が所定条件を満たす講義映像の時間的範囲を特定するからである。また、講義映像分析部が、講義映像毎に、該講義映像を視聴した1人以上の受講者の理解度が所定条件を満たす講義映像の時間的範囲を特定するからである。
このように、本実施の形態は、受講者の理解度に基づく受講者毎の分析結果と、講義映像毎の分析結果とを出力するので、出力された情報を用いれば、講義映像における受講者の理解度向上を補助したり、講義映像の品質改善を補助したりすることができる。
(第4の実施の形態)
次に、本発明の第4の実施の形態について図面を参照して詳細に説明する。なお、本実施の形態の説明において参照する各図面において、本発明の第3の実施の形態と同一の構成および同様に動作するステップには同一の符号を付して本実施の形態における詳細な説明を省略する。
まず、本発明の第4の実施の形態としての講義映像分析システム4の機能ブロック構成を図10に示す。図10において、講義映像分析システム4は、本発明の第3の実施の形態に対して、講義映像分析装置30に替えて、講義映像分析装置40を含む点が異なる。また、講義映像分析装置40は、本発明の第3の実施の形態としての講義映像分析装置30と同様の構成に加えて、さらに、人物識別部47を備える。
なお、本実施の形態では、受講者撮影システム90は、1人または複数の受講者が映されている受講者映像を取得することを前提とする。そのような受講者映像が取得される状況の一例について説明する。例えば、教室前方の大画面に再生される講義映像を複数の受講者が視聴する状況が考えられる。また、1つの教室に、受講者毎に講義映像を視聴可能な端末をそれぞれ含む複数のブースが設置された状況が考えられる。
これらのような状況において、受講者撮影システム90は、教室全体を撮影することにより、1人または複数の受講者が映された受講者映像を取得可能である。なお、上述した状況は一例であり、1人または複数の受講者が映されている受講者映像が取得される状況は、これらに限定されない。
また、前述した前者の状況では、講義映像提示システム80は、教室全体で同一の再生制御情報を記録することになる。つまり、全受講者で視聴する講義映像の再生は、代表者により制御される状況である。また、後者の状況では、講義映像提示システム80は、受講者毎に再生制御情報を記録することになる。
なお、講義映像分析システム4のハードウェア構成は、図5を参照して説明した本発明の第2の実施の形態と同様のハードウェア要素によって構成可能である。ただし、講義映像分析システム4のハードウェア構成は、上述の構成に限定されない。
次に、講義映像分析装置40を構成する要素のうち、本発明の第3の実施の形態と異なる要素について詳細に説明する。
人物識別部47は、受講者映像に映された1人以上の受講者のそれぞれを識別する。映像に映された人物の識別処理については、公知の技術を適用可能である。さらに、人物識別部47は、識別した人物が、受講者情報格納部35に格納された情報が示すいずれの受講者であるかを識別してもよい。この場合、受講者情報格納部35に格納される受講者情報は、映像において識別される受講者の外見の特徴データを含んでいてもよい。また、この場合、人物識別部47は、識別した人物について、受講者情報格納部35の受講者情報にその特徴データが登録されていないと判断した場合は、その特徴データを含む受講者情報を新たに登録してもよい。
なお、受講者反応認識部11、理解度推定部32、再生制御情報取得部13、および、講義映像分析部34は、人物識別部47によって識別された各受講者について、本発明の第3の実施の形態と同様に機能するよう構成される。
以上のように構成された講義映像分析システム4の動作について、図面を参照して説明する。
なお、講義映像提示システム80の動作は、本発明の第3の実施の形態において図7を参照して説明した通りであるため、本実施の形態における説明を省略する。また、受講者撮影システム90の動作は、本発明の第3の実施の形態において図8を参照して説明した通りであるため、本実施の形態における説明を省略する。ただし、図8のステップB2で撮影される空間には、1人または複数の受講者が存在しているものとする。
ここでは、講義映像分析装置40の動作を図11に示す。
図11では、まず、受講者反応認識部11は、本発明の第3の実施の形態と同様にステップS11を実行する。ただし、前述のように、このステップで取得される受講者映像には、1人または複数の受講者が映されている。
次に、再生制御情報取得部13は、本発明の第3の実施の形態と同様にステップS12を実行する。ただし、前述のように、このステップでは、受講者映像に映されている受講者毎に再生制御情報が取得される場合もあれば、受講者映像に映されている受講者全員に共通の再生制御情報が取得される場合もある。
次に、人物識別部47は、受講者映像に映された1人以上の受講者のそれぞれを識別する(ステップS41)。前述のように、人物識別部47は、このとき、識別したそれぞれの人物が、受講者情報格納部35に登録された受講者情報のいずれに該当するかを併せて識別する。
以降、講義映像提示システム80は、識別された受講者毎に、ステップS3、S14〜S16までを本発明の第3の実施の形態と同様に実行することを繰り返す。
次に、講義毎分析部343は、本発明の第3の実施の形態と同様にステップS17を実行し、講義映像毎の分析を行う。なお、受講者映像に映されていた受講者全員が同一の講義映像を視聴していた場合、このステップでは1つの講義映像について分析が行われる。また、受講者映像に複数の受講者が映されておりそのうち少なくとも1人が他と異なる講義映像を視聴していた場合、このステップでは、複数の講義映像について分析が行われる。
次に、講義映像分析部34は、本発明の第3の実施の形態と同様にステップS18を実行する。これにより、各受講者に関するステップS16の分析結果と、各講義映像についてのステップS17の分析結果が出力される。
以上で、講義映像分析装置40は、動作を終了する。
次に、本発明の第4の実施の形態の効果について述べる。
本実施の形態は、1人または複数の受講者が同一の空間に存在し得る形態の授業映像サービスにおいて、講義映像における任意の時間的範囲の内容について、受講者の理解度をより低コストでより精度よく評価することができる。また、本実施の形態は、そのような形態の授業映像サービスにおいて、各受講者の理解度向上の補助および各講義映像の品質改善のための情報を提供することができる。
その理由について説明する。本実施の形態では、本発明の第3の実施の形態と同様の構成に加えて、講義映像分析装置が、人物識別部を備えるからである。すなわち、人物識別部が、受講者映像に映された1人以上の受講者のそれぞれを識別する。そして、受講者反応認識部、理解度推定部、再生制御情報取得部、および、講義映像分析部が、人物識別部によって識別された各受講者について、本発明の第3の実施の形態と同様に機能するよう構成されるからである。
これにより、本実施の形態は、1人または複数の受講者が同一の空間に存在し得る形態の授業映像サービスにおいて、受講者のそれぞれが別々に撮影された受講者映像を用いる必要がない。そのため、本実施の形態は、そのような状況における各受講者の理解度の評価を、より低コストで実現する。
なお、本発明の第3および第4の各実施の形態において、講義映像分析装置が、受講者映像および再生制御情報を取得してから講義映像を分析するまでを、一連の処理として続けて実行する例について説明した。ただし、講義映像分析装置は、これらの処理を必ずしも一連の処理として実行しなくてもよい。
例えば、講義映像分析装置は、受講者映像および再生制御情報を互いに関連付けながら蓄積しておき、所定のタイミングや外部からの要求に応じて、受講者の反応の認識、理解度の推定、および、受講理解情報の作成の各処理を実行してもよい。
また、例えば、講義映像分析装置は、生成した受講理解情報を受講理解情報格納部に蓄積しておき、所定のタイミングや外部からの要求に応じて、受講者毎の分析または講義映像毎の分析を実行してもよい。また、講義映像分析装置は、受講者毎の分析および講義映像毎の分析を、必ずしも続けて実行しなくてもよい。
また、本発明の第3および第4の各実施の形態において、理解度推定部は、理解度を推定する際に、受講者情報格納部にあらかじめ格納された特性データを参照するものとして説明した。これに加えて、例えば、受講者反応認識部が、受講者の反応を認識するために映像を解析する際に、受講者の反応の特性データを生成して受講者情報格納部に登録しておくようにしてもよい。この場合、理解度推定部は、受講者反応認識部によって登録された特性データも考慮して、理解度を推定することになる。
また、本発明の第3および第4の各実施の形態において、講義映像分析装置が、受講者情報格納部および受講理解情報格納部を有するものとして説明した。ただし、講義映像分析装置は、必ずしもこれらの格納部を含んでいなくてもよい。例えば、理解度推定部は、分析対象として入力される受講者情報に基づいて、理解度の推定を行うことも可能である。また、例えば、講義映像分析部は、必ずしも受講理解情報を生成して蓄積しなくても、理解度、受講者映像の時間的範囲および再生制御情報に基づいて分析した分析結果を出力することも可能である。
また、本発明の第2から第4の各実施の形態において、講義映像提示システムが、講義映像を配信するサーバと、講義映像を再生し制御情報を記録する端末とからなる例について説明した。これに限らず、講義映像提示システムは、自装置内のメモリや可搬型記憶媒体に格納された講義映像を再生し制御情報を記録する物理的に1つの装置によって構成されてもよい。
また、本発明の第2から第4の各実施の形態において、講義映像分析装置が、講義映像提示システムを構成するサーバと同一のサーバによって構成される例について説明した。これに限らず、講義映像分析装置は、講義映像提示システムを構成するサーバとは物理的に異なるサーバによって構成されていてもよい。
また、本発明の第2から第4の各実施の形態において、講義映像分析装置の各機能ブロックは、物理的に異なる複数のコンピュータ装置に分散して配置されてもよい。例えば、受講者反応認識部が端末上に配置され、その他の機能ブロックがサーバ上に配置されてもよい。この場合、端末からサーバに受講者映像を送信する必要がなくなり、ネットワーク負荷が軽減される。
その他、本発明の各実施の形態において、講義映像分析システム全体が、物理的に1つのコンピュータ装置上に実現されてもよい。あるいは、講義映像分析システムに含まれる各機能ブロックは、物理的に異なる複数のコンピュータ装置に分散して配置されていてもよい。
また、上述した本発明の各実施の形態において、講義映像分析装置の各機能ブロックが、メモリに記憶されたコンピュータ・プログラムを実行するCPUによって実現される例を中心に説明した。これに限らず、各機能ブロックの一部、全部、または、それらの組み合わせが専用のハードウェアにより実現されていてもよい。
また、上述した本発明の各実施の形態において、図面を参照して説明した講義映像分析装置の動作を、本発明のコンピュータ・プログラムとしてコンピュータの記憶装置(記憶媒体)に格納しておく。そして、係るコンピュータ・プログラムを当該CPUが読み出して実行するようにしてもよい。そして、このような場合において、本発明は、係るコンピュータ・プログラムのコードあるいは記憶媒体によって構成される。
また、上述した各実施の形態は、適宜組み合わせて実施されることが可能である。
また、本発明は、上述した各実施の形態に限定されず、様々な態様で実施されることが可能である。
2、3、4 講義映像分析システム
10、30、40 講義映像分析装置
11 受講者反応認識部
12、32 理解度推定部
13 再生制御情報取得部
14、34 講義映像分析部
35 受講者情報格納部
36 受講理解情報格納部
47 人物識別部
80 講義映像提示システム
90 受講者撮影システム
341 受講理解情報生成部
342 個人毎分析部
343 講義毎分析部
100 コンピュータ
210 サーバ
220 端末
230 撮像装置
1001、2101、2201 CPU
1002、2102、2202 メモリ
1003、2103、2203 出力装置
1004、2104、2204 入力装置
1005、2105、2205 ネットワークインタフェース
2206 周辺機器接続インタフェース

Claims (9)

  1. 講義を表す講義映像を視聴する受講者が撮影された受講者映像について、前記受講者映像の任意の時間的範囲に映された前記受講者の前記講義に対する反応を認識する受講者反応認識部と、
    前記受講者反応認識部によって認識された前記受講者の反応が肯定的または否定的である程度に基づいて、前記受講者映像の前記時間的範囲における前記受講者の前記講義に対する理解の程度を表す理解度を推定する理解度推定部と、
    前記講義映像が前記受講者に提示される際に再生が制御された内容を表す再生制御情報を取得する再生制御情報取得部と、
    前記理解度推定部により推定された前記理解度と、前記理解度が推定された前記受講者映像の前記時間的範囲と、前記再生制御情報とに基づいて、前記受講者の理解が前記理解度である前記講義映像の時間的範囲に関する情報を求める講義映像分析部と、
    を備えた講義映像分析装置。
  2. 前記理解度推定部は、前記受講者の反応の傾向を表す特性データをさらに考慮して、前記受講者映像の前記時間的範囲における前記受講者の前記理解度を推定することを特徴とする請求項1に記載の講義映像分析装置。
  3. 前記講義映像分析部は、前記受講者毎に、該受講者の前記理解度が所定条件を満たす前記講義映像の時間的範囲を特定することを特徴とする請求項1または請求項2に記載の講義映像分析装置。
  4. 前記講義映像分析部は、前記講義映像毎に、該講義映像を視聴した1人以上の受講者の前記理解度が所定条件を満たす該講義映像の時間的範囲を特定することを特徴とする請求項1から請求項3のいずれか1項に記載の講義映像分析装置。
  5. 前記受講者映像に映された1人以上の受講者のそれぞれを識別する人物識別部をさらに備え、
    前記受講者反応認識部、前記理解度推定部、前記再生制御情報取得部および前記講義映像分析部は、前記人物識別部によって識別された各受講者について機能することを特徴とする請求項1から請求項4のいずれか1項に記載の講義映像分析装置。
  6. 請求項1から請求項5のいずれか1項に記載の講義映像分析装置と、
    前記講義映像を前記受講者に提示する際に前記再生制御情報を記録して前記講義映像分析装置に出力する講義映像提示システムと、
    前記講義映像を視聴する前記受講者を撮像装置を用いて撮影することにより前記受講者映像を記録して前記講義映像分析装置に出力する受講者撮影システムと、
    を含む講義映像分析システム。
  7. コンピュータ装置が、
    講義を表す講義映像を視聴する受講者が撮影された受講者映像について、前記受講者映像の任意の時間的範囲に映された前記受講者の前記講義に対する反応を認識し、
    認識した前記受講者の反応が肯定的または否定的である程度に基づいて、前記受講者映像の前記時間的範囲における前記受講者の前記講義に対する理解の程度を表す理解度を推定し、
    前記講義映像が前記受講者に提示される際に再生が制御された内容を表す再生制御情報を取得し、
    推定した前記理解度と、前記理解度が推定された前記受講者映像の前記時間的範囲と、前記再生制御情報とに基づいて、前記受講者の理解が前記理解度である前記講義映像の時間的範囲に関する情報を求める方法。
  8. コンピュータ装置が、
    講義映像を受講者に提示する際に、再生が制御された内容を表す再生制御情報を記録し、
    前記講義映像を視聴する前記受講者を撮像装置を用いて撮影することにより受講者映像を記録し、
    前記受講者映像の任意の時間的範囲に映された前記受講者の前記講義に対する反応を認識し、
    認識した前記受講者の反応が肯定的または否定的である程度に基づいて、前記受講者映像の前記時間的範囲における前記受講者の前記講義に対する理解の程度を表す理解度を推定し、
    推定した前記理解度と、前記理解度が推定された前記受講者映像の前記時間的範囲と、前記再生制御情報とに基づいて、前記受講者の理解が前記理解度である前記講義映像の時間的範囲に関する情報を求める方法。
  9. 講義を表す講義映像を視聴する受講者が撮影された受講者映像について、前記受講者映像の任意の時間的範囲に映された前記受講者の前記講義に対する反応を認識する受講者反応認識ステップと、
    前記受講者反応認識ステップによって認識された前記受講者の反応が肯定的または否定的である程度に基づいて、前記受講者映像の前記時間的範囲における前記受講者の前記講義に対する理解の程度を表す理解度を推定する理解度推定ステップと、
    前記講義映像が前記受講者に提示される際に再生が制御された内容を表す再生制御情報を取得する再生制御情報取得ステップと、
    前記理解度推定ステップにより推定された前記理解度と、前記理解度が推定された前記受講者映像の前記時間的範囲と、前記再生制御情報とに基づいて、前記受講者の理解が前記理解度である前記講義映像の時間的範囲に関する情報を求める講義映像分析ステップと、
    をコンピュータ装置に実行させるプログラム。
JP2017050800A 2017-03-16 2017-03-16 講義映像分析装置、講義映像分析システム、方法およびプログラム Active JP7069550B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017050800A JP7069550B2 (ja) 2017-03-16 2017-03-16 講義映像分析装置、講義映像分析システム、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017050800A JP7069550B2 (ja) 2017-03-16 2017-03-16 講義映像分析装置、講義映像分析システム、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2018155825A true JP2018155825A (ja) 2018-10-04
JP7069550B2 JP7069550B2 (ja) 2022-05-18

Family

ID=63716326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017050800A Active JP7069550B2 (ja) 2017-03-16 2017-03-16 講義映像分析装置、講義映像分析システム、方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7069550B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6993745B1 (ja) 2021-02-12 2022-01-14 株式会社フォーサイト 講義評価システムおよび方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003228272A (ja) * 2002-02-06 2003-08-15 Univ Saga 教材学習システム
JP2007102344A (ja) * 2005-09-30 2007-04-19 Fujifilm Corp 自動評価装置、プログラムおよび方法
JP2007334704A (ja) * 2006-06-16 2007-12-27 Hitachi Ltd コンテンツ評価システム
JP2009258175A (ja) * 2008-04-11 2009-11-05 Yamaha Corp 講義システムおよび集計システム
US20100021877A1 (en) * 2008-07-25 2010-01-28 Butler David A Video Management System for Interactive Online Instruction
JP2013061906A (ja) * 2011-09-15 2013-04-04 Osaka Kyoiku Univ 顔分析装置、顔分析方法、及びプログラム
JP2014075066A (ja) * 2012-10-05 2014-04-24 Nec Corp 教育現場改善支援システム、教育現場改善支援方法、情報処理装置、通信端末およびその制御方法と制御プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003228272A (ja) * 2002-02-06 2003-08-15 Univ Saga 教材学習システム
JP2007102344A (ja) * 2005-09-30 2007-04-19 Fujifilm Corp 自動評価装置、プログラムおよび方法
JP2007334704A (ja) * 2006-06-16 2007-12-27 Hitachi Ltd コンテンツ評価システム
JP2009258175A (ja) * 2008-04-11 2009-11-05 Yamaha Corp 講義システムおよび集計システム
US20100021877A1 (en) * 2008-07-25 2010-01-28 Butler David A Video Management System for Interactive Online Instruction
JP2013061906A (ja) * 2011-09-15 2013-04-04 Osaka Kyoiku Univ 顔分析装置、顔分析方法、及びプログラム
JP2014075066A (ja) * 2012-10-05 2014-04-24 Nec Corp 教育現場改善支援システム、教育現場改善支援方法、情報処理装置、通信端末およびその制御方法と制御プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6993745B1 (ja) 2021-02-12 2022-01-14 株式会社フォーサイト 講義評価システムおよび方法
JP2022123673A (ja) * 2021-02-12 2022-08-24 株式会社フォーサイト 講義評価システムおよび方法

Also Published As

Publication number Publication date
JP7069550B2 (ja) 2022-05-18

Similar Documents

Publication Publication Date Title
US11670055B1 (en) Facial expression tracking during augmented and virtual reality sessions
JP7440020B2 (ja) 情報処理方法、端末装置、情報処理装置、及び情報処理システム
US10855785B2 (en) Participant engagement detection and control system for online sessions
CN109685007B (zh) 用眼习惯的预警方法、用户设备、存储介质及装置
JP4631014B2 (ja) 電子教材学習支援装置と電子教材学習支援システム及び電子教材学習支援方法並びに電子学習支援プログラム
KR101375119B1 (ko) 모의 면접 방법 및 모의 면접 방법을 모바일 단말에서 실행할 수 있는 애플리케이션으로 기록한 기록매체
KR102202730B1 (ko) 학습자 행동 분석에 기반한 학습 관리 시스템
EP3285222A1 (en) Facilitating television based interaction with social networking tools
US20210304339A1 (en) System and a method for locally assessing a user during a test session
JP2016100033A (ja) 再生制御装置
JP2021018316A (ja) 学習システム、学習講義提供方法、およびプログラム
JP2023089080A (ja) 学習システム、学習講義提供方法、およびプログラム
US20160189554A1 (en) Education service system
JP7069550B2 (ja) 講義映像分析装置、講義映像分析システム、方法およびプログラム
US12002287B2 (en) Computing device attention determination
KR102381941B1 (ko) 사용자 맞춤형 독서실 관리 시스템
CN115150651A (zh) 在线视频分发支持方法和在线视频分发支持设备
CN115516544A (zh) 辅助系统、辅助方法以及辅助程序
JP2022153255A (ja) オンライン映像配信支援方法およびオンライン映像配信支援装置
CN110809180A (zh) 信息处理设备和信息处理方法
CN110120259B (zh) 智能咨询系统及其应用方法
CN112270264A (zh) 一种多方互动教学系统
KR20140110557A (ko) 영상피드백을 활용한 이러닝 시스템
KR20200047285A (ko) 카메라 및 거리감지센서를 이용한 순수 공부시간 측정 장치 및 방법
US20200226379A1 (en) Computer system, pavilion content changing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20211022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220418

R151 Written notification of patent or utility model registration

Ref document number: 7069550

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151