JP6859640B2 - 情報処理装置、評価システムおよびプログラム - Google Patents
情報処理装置、評価システムおよびプログラム Download PDFInfo
- Publication number
- JP6859640B2 JP6859640B2 JP2016184836A JP2016184836A JP6859640B2 JP 6859640 B2 JP6859640 B2 JP 6859640B2 JP 2016184836 A JP2016184836 A JP 2016184836A JP 2016184836 A JP2016184836 A JP 2016184836A JP 6859640 B2 JP6859640 B2 JP 6859640B2
- Authority
- JP
- Japan
- Prior art keywords
- lecturer
- evaluation
- student
- behavior
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Description
講義が行われている部屋内で講義者が移動する講義において、講義者を撮影した動画データから当該動画データに映っている講義者の人体の部位を特定し、特定された部位の動作を検出し、受講者を撮影した動画データから当該動画データに映っている受講者の人体の部位を特定し、特定された部位の動作を検出する動作検出部と、
前記動作検出部により検出された人体の部位の動作に基づき、講義者の行動に関して、部屋内での移動を示す行動を抽出し、受講者の行動に関して、講義者に対して視線を向ける行動を抽出する行動抽出部と、
前記行動抽出部により抽出された講義者および受講者の行動ならびに講義者が講義において受講者に注意を向ける度合いまたは受講者が講義において講義者に注意を向ける度合いを評価する評価基準に基づき、評価を行う評価部と、
を備えることを特徴とする、情報処理装置である。
本発明の請求項2に係る情報処理装置は、
前記評価部は、講義者が講義において受講者に注意を向ける度合いとして、講義者の移動後の立ち位置に偏りがないかを評価することを特徴とする、請求項1に記載の情報処理装置である。
本発明の請求項3に係る情報処理装置は、
前記評価部は、講義者が講義において受講者に注意を向ける度合いとして、受講者の間を巡回する頻度を評価することを特徴とする、請求項1に記載の情報処理装置である。
本発明の請求項4に係る評価システムは、
講義が行われている部屋内で講義者が移動する講義において、
受講者を撮影して動画データを取得する第1取得手段と、
講義を行う教室内を移動する講義者を撮影して動画データを取得する第2取得手段と、
前記第1取得手段および前記第2取得手段により取得された動画データを解析して動画に映っている受講者および講義者の行動を評価する行動評価手段と、
前記行動評価手段による評価結果を出力する出力手段と、を備え、
前記行動評価手段は、
受講者を撮影した動画データから当該動画データに映っている受講者の人体の部位を特定し、特定された部位の動作を検出し、講義者を撮影した動画データから当該動画データに映っている講義者の人体の部位を特定し、特定された部位の動作を検出する動作検出部と、
前記動作検出部により検出された人体の部位の動作に基づき、受講者の行動に関して、移動する講義者に対して視線を向ける行動を抽出し、講義者の行動に関して、部屋内での移動を示す行動を抽出する行動抽出部と、
前記行動抽出部により抽出された受講者および講義者の行動ならびに受講者が講義において講義者に注意を向ける度合いまたは講義者が講義において受講者に注意を向ける度合いを評価する評価基準に基づき、評価を行う評価部と、
を備えることを特徴とする、評価システムである。
本発明の請求項5に係る評価システムは、
前記第2取得手段により取得された動画データに映っている人体の部位の動きに基づいて、講義者が映っている領域を識別する参加者識別部をさらに備え、
前記動作検出部は、前記参加者識別部の識別結果に基づき、受講者の動作と講義者の動作とを識別して検出することを特徴とする、請求項4に記載の評価システムである。
本発明の請求項6に係る評価システムは、
前記第2取得手段は、講義者の身体を撮影する撮影装置と、当該撮影装置を設置した可動式の架台とを備え、講義者の移動に応じて講義者を追尾しながら撮影することを特徴とする、請求項4に記載の評価システムである。
本発明の請求項7に係るプログラムは、
コンピュータを、
講義が行われている部屋内で講義者が移動する講義において、講義者を撮影した動画データから当該動画データに映っている講義者の人体の部位を特定し、特定された部位の動作を検出し、受講者を撮影した動画データから当該動画データに映っている受講者の人体の部位を特定し、特定された部位の動作を検出する動作検出手段と、
前記動作検出手段により検出された人体の部位の動作に基づき、講義者の行動に関して、部屋内での移動を示す行動を抽出し、受講者の行動に関して、講義者に対して視線を向ける行動を抽出する行動抽出手段と、
前記行動抽出手段により抽出された講義者および受講者の行動ならびに講義者が講義において受講者に注意を向ける度合いまたは受講者が講義において講義者に注意を向ける度合いを評価する評価基準に基づき、評価を行う評価手段として機能させること、
を特徴とする、プログラムである。
請求項2の発明によれば、単に特定の動作が行われたか否かを評価する構成と比較して、非言語情報に基づいて、講義者に対するきめ細かい評価を行うことができる。
請求項3の発明によれば、単に特定の動作が行われたか否かを評価する構成と比較して、非言語情報に基づいて、講義者に対するきめ細かい評価を行うことができる。
請求項4の発明によれば、取得手段により動画として取得された身体の部位の動き自体を評価する構成と比較して、非言語情報に基づいて、講義における講義者と受講者との関係における精度の高い評価を行うことができる。
請求項5の発明によれば、講義者と受講者とが撮影された動画データから講義者の画像と受講者の画像とを識別し、講義における講義者と受講者との関係の評価を行うことができる。
請求項6の発明によれば、動画データを解析することなく、動画が撮影された撮影装置の別に基づいて講義者の画像と受講者の画像とを識別し、講義における講義者と受講者との関係の評価を行うことができる。
請求項7の発明によれば、動画として取得された身体の部位の動き自体を評価する構成と比較して、本発明のプログラムを実行するコンピュータにおいて、非言語情報に基づいて、講義における講義者と受講者との関係における精度の高い評価を行うことができる。
図1は、本実施形態が適用される非言語情報評価システムの構成例を示す図である。図1に示すように、本実施形態による非言語情報評価システム10は、動画取得装置としてのビデオカメラ100と、動画解析装置としての情報処理装置200と、情報処理装置200による解析結果を出力する出力装置としての端末装置300とを備える。ビデオカメラ100と情報処理装置200、情報処理装置200と端末装置300は、それぞれネットワーク20を介して接続されている。
情報処理装置200の領域識別部220による処理について説明する。領域識別部220は、ビデオカメラ100により撮影された動画から、その動画に映っている人物の動作に係る部位を識別する。この部位の識別には、既存の種々の画像解析技術を適用してよい。例えば、顔や笑顔の識別は、デジタルカメラ等で実現されている既存の識別手法を用いてよい。また、動画に映されている特定の形状の部分(領域)やそのような複数の部分の配置等に基づいて、身体の部位が映っている領域を特定し得る。さらに一例として、フレーム間特徴量に基づく識別を行ってもよい。具体的には、動画データの連続する2枚以上のフレームの差分に基づき、フレーム間特徴量を求める。ここで、フレーム間特徴量としては、例えば、色の境界(エッジ)、色の変化量、これらによって特定される領域の移動方向や移動量などが用いられる。予め設定された時間分のフレーム間特徴量を累積し、フレームごとのフレーム間特徴量の距離や類似度に基づいて、フレーム間特徴量を分類、統合する。これにより、動画において連携して変化する領域が特定され、身体の部位が映っている領域が識別される。
動作検出部230による処理について説明する。動作検出部230は、領域識別部220により識別された身体の部位が映っている領域を解析して、具体的にどの部位が映っているかを特定し、特定した部位ごとの動きを検出する。この動きの検出には、既存の種々の画像解析技術を適用してよい。検出される動きは、特定された部位ごとに身体動作として起こり得る動きである。例えば、目を閉じたり口を開けたりする動き、視線の変化、顔の向きを上下や左右に変える動き、肘の曲げ伸ばしや腕を振る動き、手指の曲げ伸ばしや手を開いたり閉じたりする動き、腰の曲げ伸ばしや体を捻じる動き、膝の曲げ伸ばしや脚を振る動き、歩行等による身体の移動などが検出される。なお、これらの動きは例示に過ぎず、本実施形態の非言語情報評価システム10で検出し得る動きは、上記に提示した動きに限定されない。本実施形態では、動作検出部230は、領域識別部220で領域として識別された全ての部位の動きを検出してもよいし、後段の非言語情報抽出部240で抽出される動作を特定するための動き等に限定して検出してもよい。例えば、非言語情報抽出部240でうなずく動作のみを抽出するのであれば、顔の向きを上下に変えるような頭の動きを検出すればよい。
非言語情報抽出部240による処理について説明する。非言語情報抽出部240は、動作検出部230により検出された部位の動きに基づいて、評価対象者が意識的にまたは無意識的に行った意味のある行動を非言語情報として抽出する。例えば、顔の向きを上下に変える動きからうなずくという動作を抽出したり、口を動かす動きから発話や欠伸という動作を抽出したり、腕を上げる動きから挙手という動作を抽出したりする。非言語情報の抽出は、単に動作検出部230により検出された部位の動きのみに基づいて行われるのではなく、例えば、検出された動きの前後における該当部位の動き、周囲の部位や他の人物の動き、動きが検出された場面や文脈(背景)等の情報も参酌して行われる。具体例を挙げると、顔の向きを上下に連続的に変える動きが特定の時間内で行われたとき、この動きは、うなずきの動作として抽出される。一方、顔の向きが上を向き、ある程度の時間が経過した後に下方向へ動いてもとに戻ったとき、この動きは、思考するために上方を見上げた動作として抽出される。また、顔の向きが下を向き、ある程度の時間が経過したとき、この動作は、居眠りしていることを示す動作として抽出される。なお、これらの動作や参酌情報は例示に過ぎず、本実施形態の非言語情報評価システム10で非言語情報として抽出し得る動作や参酌情報は、上記に提示した動作や情報に限定されない。
反応評価部250による処理について説明する。反応評価部250は、非言語情報抽出部240により抽出された非言語情報に基づき、非言語情報評価システム10が適用される場面に応じた評価対象者の反応を評価する。例えば、講義における受講者の反応を評価するのであれば、講義に対する集中の度合い等が評価項目となる。また、参加型の授業であれば、各生徒の集中の度合いや積極性、授業全体の活性度等が評価項目となる。また、単純に、非言語情報評価システム10が適用される場面の目的に対して肯定的(ポジティブ)な反応か否定的(ネガティブ)な反応かを評価するようにしてもよい。評価結果は、評価項目や評価の目的等に応じて様々な形式で決定し得る。例えば、授業中に発言したか否かというような二値的な評価を行ってもよいし、集中度や積極性などの評価項目の達成度(評価の程度)を段階的に特定する多値的な評価を行ってもよい。また、反応評価部250は、講義や授業が行われる一定時間にわたって継続的に評価を行い、時間の経過に伴って変化する時系列の評価情報を生成してもよい。
本実施形態では、本実施形態の非言語情報評価システム10の適用例として、講義を行う講義者および受講者(受講生)を評価することとした。そこで、本実施形態を適用するには、講義者および受講者の両方について動画を取得し、各々を個別の評価基準に基づいて評価することが必要である。ここでは、複数のビデオカメラ100を用意し、講義者および受講者の両方の動画を取得する。
端末装置300による評価結果の出力例について説明する。情報処理装置200において反応評価部250により行われた評価の結果は、出力部260により端末装置300へ送られる。端末装置300において、評価結果取得部310は、情報処理装置200から送信された評価結果のデータを受け取る。表示画像生成部320は、取得した評価結果のデータに基づき、評価結果を視覚的に示す出力画像を生成する。表示制御部330は、生成された出力画像を表示装置304に表示させる。
以上、本実施形態による非言語情報評価システム10について説明したが、本実施形態の具体的構成は上記のものに限定されない。例えば、上記の構成では、ビデオカメラ100で取得した動画を情報処理装置200が処理し、得られた評価結果を出力手段としての端末装置300が表示出力するとした。これに対し、情報処理装置200が出力手段を兼ねる構成としてもよい。すなわち、情報処理装置200と端末装置300とを分けず、例えば、情報処理装置200自身が液晶ディスプレイ等の表示装置を備える構成とし、評価結果の表示出力を行うようにしてもよい。また、上記の実施形態では、ビデオカメラ100で撮影することにより評価対象者の画像を取得したが、別途用意された画像データを情報処理装置200が解析し、評価しても良い。例えば、別途撮影し、磁気ディスク装置等の記憶装置に蓄積された画像データを読み込んで評価しても良い。
Claims (7)
- 講義が行われている部屋内で講義者が移動する講義において、講義者を撮影した動画データから当該動画データに映っている講義者の人体の部位を特定し、特定された部位の動作を検出し、受講者を撮影した動画データから当該動画データに映っている受講者の人体の部位を特定し、特定された部位の動作を検出する動作検出部と、
前記動作検出部により検出された人体の部位の動作に基づき、講義者の行動に関して、部屋内での移動を示す行動を抽出し、受講者の行動に関して、講義者に対して視線を向ける行動を抽出する行動抽出部と、
前記行動抽出部により抽出された講義者および受講者の行動ならびに講義者が講義において受講者に注意を向ける度合いまたは受講者が講義において講義者に注意を向ける度合いを評価する評価基準に基づき、評価を行う評価部と、
を備えることを特徴とする、情報処理装置。 - 前記評価部は、講義者が講義において受講者に注意を向ける度合いとして、講義者の移動後の立ち位置に偏りがないかを評価することを特徴とする、請求項1に記載の情報処理装置。
- 前記評価部は、講義者が講義において受講者に注意を向ける度合いとして、受講者の間を巡回する頻度を評価することを特徴とする、請求項1に記載の情報処理装置。
- 講義が行われている部屋内で講義者が移動する講義において、
受講者を撮影して動画データを取得する第1取得手段と、
講義を行う教室内を移動する講義者を撮影して動画データを取得する第2取得手段と、
前記第1取得手段および前記第2取得手段により取得された動画データを解析して動画に映っている受講者および講義者の行動を評価する行動評価手段と、
前記行動評価手段による評価結果を出力する出力手段と、を備え、
前記行動評価手段は、
受講者を撮影した動画データから当該動画データに映っている受講者の人体の部位を特定し、特定された部位の動作を検出し、講義者を撮影した動画データから当該動画データに映っている講義者の人体の部位を特定し、特定された部位の動作を検出する動作検出部と、
前記動作検出部により検出された人体の部位の動作に基づき、受講者の行動に関して、移動する講義者に対して視線を向ける行動を抽出し、講義者の行動に関して、部屋内での移動を示す行動を抽出する行動抽出部と、
前記行動抽出部により抽出された受講者および講義者の行動ならびに受講者が講義において講義者に注意を向ける度合いまたは講義者が講義において受講者に注意を向ける度合いを評価する評価基準に基づき、評価を行う評価部と、
を備えることを特徴とする、評価システム。 - 前記第2取得手段により取得された動画データに映っている人体の部位の動きに基づいて、講義者が映っている領域を識別する参加者識別部をさらに備え、
前記動作検出部は、前記参加者識別部の識別結果に基づき、受講者の動作と講義者の動作とを識別して検出することを特徴とする、請求項4に記載の評価システム。 - 前記第2取得手段は、講義者の身体を撮影する撮影装置と、当該撮影装置を設置した可動式の架台とを備え、講義者の移動に応じて講義者を追尾しながら撮影することを特徴とする、請求項4に記載の評価システム。
- コンピュータを、
講義が行われている部屋内で講義者が移動する講義において、講義者を撮影した動画データから当該動画データに映っている講義者の人体の部位を特定し、特定された部位の動作を検出し、受講者を撮影した動画データから当該動画データに映っている受講者の人体の部位を特定し、特定された部位の動作を検出する動作検出手段と、
前記動作検出手段により検出された人体の部位の動作に基づき、講義者の行動に関して、部屋内での移動を示す行動を抽出し、受講者の行動に関して、講義者に対して視線を向ける行動を抽出する行動抽出手段と、
前記行動抽出手段により抽出された講義者および受講者の行動ならびに講義者が講義において受講者に注意を向ける度合いまたは受講者が講義において講義者に注意を向ける度合いを評価する評価基準に基づき、評価を行う評価手段として機能させること、
を特徴とする、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016184836A JP6859640B2 (ja) | 2016-09-21 | 2016-09-21 | 情報処理装置、評価システムおよびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016184836A JP6859640B2 (ja) | 2016-09-21 | 2016-09-21 | 情報処理装置、評価システムおよびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018049481A JP2018049481A (ja) | 2018-03-29 |
JP6859640B2 true JP6859640B2 (ja) | 2021-04-14 |
Family
ID=61767628
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016184836A Active JP6859640B2 (ja) | 2016-09-21 | 2016-09-21 | 情報処理装置、評価システムおよびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6859640B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6636670B1 (ja) * | 2019-07-19 | 2020-01-29 | 株式会社フォーサイト | 学習システム、学習講義提供方法、およびプログラム |
JP2021018408A (ja) | 2019-10-18 | 2021-02-15 | 株式会社フォーサイト | 学習システム、学習講義提供方法、およびプログラム |
CN111144255B (zh) * | 2019-12-18 | 2024-04-19 | 华中科技大学鄂州工业技术研究院 | 一种教师的非语言行为的分析方法及装置 |
JPWO2021172434A1 (ja) * | 2020-02-28 | 2021-09-02 | ||
KR102393246B1 (ko) * | 2021-08-26 | 2022-05-02 | 김동혁 | 커뮤니케이션 지수를 이용하는 방법 및 디바이스 |
CN115412679B (zh) * | 2022-08-23 | 2023-06-27 | 国网浙江省电力有限公司培训中心 | 一种具有直录播功能的互动教学质量测评系统及其方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007102344A (ja) * | 2005-09-30 | 2007-04-19 | Fujifilm Corp | 自動評価装置、プログラムおよび方法 |
JP5441071B2 (ja) * | 2011-09-15 | 2014-03-12 | 国立大学法人 大阪教育大学 | 顔分析装置、顔分析方法、及びプログラム |
-
2016
- 2016-09-21 JP JP2016184836A patent/JP6859640B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018049481A (ja) | 2018-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6859640B2 (ja) | 情報処理装置、評価システムおよびプログラム | |
US10210425B2 (en) | Generating and using a predictive virtual personification | |
US9224037B2 (en) | Apparatus and method for controlling presentation of information toward human object | |
US20170127021A1 (en) | Method and system of group interaction by user state detection | |
Otsuka et al. | A realtime multimodal system for analyzing group meetings by combining face pose tracking and speaker diarization | |
US9639770B2 (en) | System and method for improving communication productivity | |
WO2013039062A1 (ja) | 顔分析装置、顔分析方法、及び記録媒体 | |
JP4704174B2 (ja) | 状態識別装置、プログラムおよび方法 | |
CN102292689A (zh) | 利用脸部检测和热点运动控制媒体的方法 | |
CN111353363A (zh) | 一种教学效果检测方法及装置、电子设备 | |
Tanveer et al. | Do you see what I see? Designing a sensory substitution device to access non-verbal modes of communication | |
JP6819194B2 (ja) | 情報処理システム、情報処理装置およびプログラム | |
JP6859641B2 (ja) | 評価システム、情報処理装置およびプログラム | |
Araya et al. | Automatic detection of gaze and body orientation in elementary school classrooms | |
US10915740B2 (en) | Facial mirroring in virtual and augmented reality | |
JP6855737B2 (ja) | 情報処理装置、評価システムおよびプログラム | |
US20220327732A1 (en) | Information processing apparatus, information processing method, and program | |
CN109986553B (zh) | 一种主动交互的机器人、系统、方法及存储装置 | |
Soneda et al. | M3B corpus: Multi-modal meeting behavior corpus for group meeting assessment | |
Suryani et al. | Multi-modal asian conversation mobile video dataset for recognition task | |
JP2021033359A (ja) | 感情推定装置、感情推定方法、プログラム、情報提示装置、情報提示方法及び感情推定システム | |
JP2018049480A (ja) | 情報処理装置、評価システムおよびプログラム | |
Komiya et al. | Image-based attention level estimation of interaction scene by head pose and gaze information | |
CN113496200A (zh) | 数据处理方法、装置、电子设备及存储介质 | |
JP2018049479A (ja) | 情報処理装置、評価システムおよびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190830 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201009 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201020 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210309 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6859640 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |