JP6859641B2 - 評価システム、情報処理装置およびプログラム - Google Patents
評価システム、情報処理装置およびプログラム Download PDFInfo
- Publication number
- JP6859641B2 JP6859641B2 JP2016184837A JP2016184837A JP6859641B2 JP 6859641 B2 JP6859641 B2 JP 6859641B2 JP 2016184837 A JP2016184837 A JP 2016184837A JP 2016184837 A JP2016184837 A JP 2016184837A JP 6859641 B2 JP6859641 B2 JP 6859641B2
- Authority
- JP
- Japan
- Prior art keywords
- evaluation
- moving image
- behavior
- motion
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
参加者の動画を取得する第1取得手段と、
前記第1取得手段よりも高い倍率で参加者の動画を取得する第2取得手段と、
前記第1取得手段および前記第2取得手段により取得された動画データを解析して動画に映っている人物の行動を評価する行動評価手段と、
前記行動評価手段による評価結果を出力する出力手段と、を備え、
前記行動評価手段は、
前記第1取得手段または前記第2取得手段により取得された動画に映っている人体の部位を特定し、特定された部位の動作を検出する動作検出部と、
前記動作検出部により検出された人体の部位の動作に基づき、予め定められた評価項目における評価対象として定義された行動を抽出する行動抽出部と、
前記行動抽出部により抽出された行動および前記評価項目ごとに予め定められた評価基準に基づき、当該評価項目ごとの評価を行う評価部と、を備え、
前記動作検出部は、前記第1取得手段により取得された動画を用いて動作の検出を行い、当該第1取得手段により取得された動画が予め定められた切り替え条件を満たす場合に、前記第2取得手段により取得された動画を用いて動作の検出を行うことを特徴とする、評価システムである。
本発明の請求項2に係る評価システムは、
前記動作検出部の処理結果および前記行動抽出部の処理結果のうち少なくとも一つの処理結果に基づいて、処理対象の動画を、前記第1取得手段により取得された動画から前記第2取得手段により取得された動画に切り替えることを特徴とする、請求項1に記載の評価システムである。
本発明の請求項3に係る評価システムは、
前記動作検出部が前記第1取得手段により取得された動画に基づいて検出した動作の時間経過に伴う変化が、予め定められた変化量よりも小さい場合に、処理対象の動画を、当該第1取得手段により取得された動画から前記第2取得手段により取得された動画に切り替えることを特徴とする、請求項2に記載の評価システムである。
本発明の請求項4に係る評価システムは、
前記行動抽出部により抽出された行動が、予め定められた条件を満たす場合に、処理対象の動画を、前記第1取得手段により取得された動画から前記第2取得手段により取得された動画に切り替えることを特徴とする、請求項2に記載の評価システムである。
本発明の請求項5に係る評価システムは、
前記第1取得手段により取得された動画に映っている人体の部位の画像が予め定められた大きさよりも小さい場合に、処理対象の動画を、前記第1取得手段により取得された動画から前記第2取得手段により取得された動画に切り替えることを特徴とする、請求項1に記載の評価システムである。
本発明の請求項6に係る情報処理装置は、
参加者が撮影された倍率の異なる複数の動画データを取得する動画データ取得部と、
前記動画データ取得部により取得された動画に映っている人体の部位を特定し、特定された部位の動作を検出する動作検出部と、
前記動作検出部により検出された人体の部位の動作に基づき、予め定められた評価項目における評価対象として定義された行動を抽出する行動抽出部と、
前記行動抽出部により抽出された行動および前記評価項目ごとに予め定められた評価基準に基づき、当該評価項目ごとの評価を行う評価部と、を備え、
前記動作検出部は、一の動画データを用いて動作の検出を行い、当該動画データが予め定められた切り替え条件を満たす場合に、当該一の動画データよりも高い倍率で撮影された他の動画データを用いて動作の検出を行うことを特徴とする、情報処理装置である。
本発明の請求項7に係る情報処理装置は、
前記動作検出部は、当該動作検出部の処理結果および前記行動抽出部の処理結果のうち少なくとも一つの処理結果に基づいて、処理対象の動画データを、前記一の動画データから前記他の動画データに切り替えることを特徴とする、請求項6に記載の情報処理装置である。
本発明の請求項8に係るプログラムは、
コンピュータを、
参加者が撮影された倍率の異なる複数の動画データを取得する動画データ取得手段と、
前記動画データ取得手段により取得された動画に映っている人体の部位を特定し、特定された部位の動作を検出する動作検出手段と、
前記動作検出手段により検出された人体の部位の動作に基づき、予め定められた評価項目における評価対象として定義された行動を抽出する行動抽出手段と、
前記行動抽出手段により抽出された行動および前記評価項目ごとに予め定められた評価基準に基づき、当該評価項目ごとの評価を行う評価手段として機能させ、
前記動作検出手段において、一の動画データを用いて動作の検出を行い、当該動画データが予め定められた切り替え条件を満たす場合に、当該一の動画データよりも高い倍率で撮影された他の動画データを用いて動作の検出を行うことを特徴とする、プログラムである。
請求項2の発明によれば、動画に対する解析処理の結果に基づいて解析対象の動画の倍率を切り替えることにより、状況に応じて、より適した動画を用いて解析処理を行うことができる。
請求項3の発明によれば、動作検出部により検出された動作の時間経過に伴う変化が小さい場合に、解析対象の動画を切り替えることにより、より詳細な解析処理を行うことができる。
請求項4の発明によれば、行動抽出部により抽出された行動に応じて、解析対象の動画を切り替えることにより、より詳細な解析処理を行うことができる。
請求項5の発明によれば、動画から識別される人体の部位の画像が小さい場合に、解析対象の動画をより高い倍率の動画に切り替えることにより、より詳細な解析処理を行うことができる。
請求項6の発明によれば、取得された動画に基づいて解析対象の動画の倍率を切り替えない構成と比較して、非言語情報に基づく精度の高い評価を行うことができる。
請求項7の発明によれば、動画に対する解析処理の結果に基づいて解析対象の動画の倍率を切り替えることにより、状況に応じて、より適した動画を用いて解析処理を行うことができる。
請求項8の発明によれば、取得された動画に基づいて解析対象の動画の倍率を切り替えない構成と比較して、本発明のプログラムを実行するコンピュータにおいて、非言語情報に基づく精度の高い評価を行うことができる。
図1は、本実施形態が適用される非言語情報評価システムの構成例を示す図である。図1に示すように、本実施形態による非言語情報評価システム10は、動画取得装置としてのビデオカメラ100と、動画解析装置としての情報処理装置200と、情報処理装置200による解析結果を出力する出力装置としての端末装置300とを備える。ビデオカメラ100と情報処理装置200、情報処理装置200と端末装置300は、それぞれネットワーク20を介して接続されている。
情報処理装置200の領域識別部220による処理について説明する。領域識別部220は、ビデオカメラ100により撮影された動画から、その動画に映っている人物の動作に係る部位を識別する。この部位の識別には、既存の種々の画像解析技術を適用してよい。例えば、顔や笑顔の識別は、デジタルカメラ等で実現されている既存の識別手法を用いてよい。また、動画に映されている特定の形状の部分(領域)やそのような複数の部分の配置等に基づいて、身体の部位が映っている領域を特定し得る。さらに一例として、フレーム間特徴量に基づく識別を行ってもよい。具体的には、動画データの連続する2枚以上のフレームの差分に基づき、フレーム間特徴量を求める。ここで、フレーム間特徴量としては、例えば、色の境界(エッジ)、色の変化量、これらによって特定される領域の移動方向や移動量などが用いられる。予め設定された時間分のフレーム間特徴量を累積し、フレームごとのフレーム間特徴量の距離や類似度に基づいて、フレーム間特徴量を分類、統合する。これにより、動画において連携して変化する領域が特定され、身体の部位が映っている領域が識別される。
動作検出部230による処理について説明する。動作検出部230は、領域識別部220により識別された身体の部位が映っている領域を解析して、具体的にどの部位が映っているかを特定し、特定した部位ごとの動きを検出する。この動きの検出には、既存の種々の画像解析技術を適用してよい。検出される動きは、特定された部位ごとに身体動作として起こり得る動きである。例えば、目を閉じたり口を開けたりする動き、視線の変化、顔の向きを上下や左右に変える動き、肘の曲げ伸ばしや腕を振る動き、手指の曲げ伸ばしや手を開いたり閉じたりする動き、腰の曲げ伸ばしや体を捻じる動き、膝の曲げ伸ばしや脚を振る動き、歩行等による身体の移動などが検出される。なお、これらの動きは例示に過ぎず、本実施形態の非言語情報評価システム10で検出し得る動きは、上記に提示した動きに限定されない。本実施形態では、動作検出部230は、領域識別部220で領域として識別された全ての部位の動きを検出してもよいし、後段の非言語情報抽出部240で抽出される動作を特定するための動き等に限定して検出してもよい。例えば、非言語情報抽出部240でうなずく動作のみを抽出するのであれば、顔の向きを上下に変えるような頭の動きを検出すればよい。
非言語情報抽出部240による処理について説明する。非言語情報抽出部240は、動作検出部230により検出された部位の動きに基づいて、評価対象者が意識的にまたは無意識的に行った意味のある行動を非言語情報として抽出する。例えば、顔の向きを上下に変える動きからうなずくという動作を抽出したり、口を動かす動きから発話や欠伸という動作を抽出したり、腕を上げる動きから挙手という動作を抽出したりする。非言語情報の抽出は、単に動作検出部230により検出された部位の動きのみに基づいて行われるのではなく、例えば、検出された動きの前後における該当部位の動き、周囲の部位や他の人物の動き、動きが検出された場面や文脈(背景)等の情報も参酌して行われる。具体例を挙げると、顔の向きを上下に連続的に変える動きが特定の時間内で行われたとき、この動きは、うなずきの動作として抽出される。一方、顔の向きが上を向き、ある程度の時間が経過した後に下方向へ動いてもとに戻ったとき、この動きは、思考するために上方を見上げた動作として抽出される。また、顔の向きが下を向き、ある程度の時間が経過したとき、この動作は、居眠りしていることを示す動作として抽出される。なお、これらの動作や参酌情報は例示に過ぎず、本実施形態の非言語情報評価システム10で非言語情報として抽出し得る動作や参酌情報は、上記に提示した動作や情報に限定されない。
反応評価部250による処理について説明する。反応評価部250は、非言語情報抽出部240により抽出された非言語情報に基づき、非言語情報評価システム10が適用される場面に応じた評価対象者の反応を評価する。例えば、講義における受講者の反応を評価するのであれば、講義に対する集中の度合い等が評価項目となる。また、参加型の授業であれば、各生徒の集中の度合いや積極性、授業全体の活性度等が評価項目となる。また、単純に、非言語情報評価システム10が適用される場面の目的に対して肯定的(ポジティブ)な反応か否定的(ネガティブ)な反応かを評価するようにしてもよい。評価結果は、評価項目や評価の目的等に応じて様々な形式で決定し得る。例えば、授業中に発言したか否かというような二値的な評価を行ってもよいし、集中度や積極性などの評価項目の達成度(評価の程度)を段階的に特定する多値的な評価を行ってもよい。また、反応評価部250は、講義や授業が行われる一定時間にわたって継続的に評価を行い、時間の経過に伴って変化する時系列の評価情報を生成してもよい。
ここで、具体的な適用の場面を想定し、非言語情報の抽出と反応評価についてさらに説明する。第1の適用場面は、講義や講演会等のように、話者と受講者(聴取者)が明確に分かれており、ほぼ話者のみが話をする場面である。片方向(ここでは話者から受講者への方向)の情報伝達が大きい場面(ケース)といえる。そして、ここでは、受講者を評価対象者として評価を行うものとする。
本実施形態において、図9に示した構成によれば、広域撮影用カメラ100aおよび拡大撮影用カメラ100bで撮影された動画は、それぞれ情報処理装置200へ送られる。本実施形態では、初期的には、拡大撮影用カメラ100bは動画を用いず、広域撮影用カメラ100aにより撮影された動画を用いて情報処理装置200による処理が行われる。具体的には、例えば、情報処理装置200において、動画データ取得部210が広域撮影用カメラ100aおよび拡大撮影用カメラ100bからの動画データを取得すると、初期的には、取得した動画データのうちの広域撮影用カメラ100aにより撮影された動画データが、解析対象として動画データ取得部210から領域識別部220へ送られる。そして、後述するように、領域識別部220、動作検出部230または非言語情報抽出部240から切り替え指示が行われると、広域撮影用カメラ100aにより撮影された動画データに替えて、拡大撮影用カメラ100bにより撮影された動画データが、解析対象として動画データ取得部210から領域識別部220へ送られる。このように、領域識別部220、動作検出部230および非言語情報抽出部240の処理結果に応じて解析対象の動画を切り替えることにより、非言語情報としての反応行動をより詳細に抽出することが可能となるため、反応評価部250による評価の精度の向上に寄与する。
端末装置300による評価結果の出力例について説明する。情報処理装置200において反応評価部250により行われた評価の結果は、出力部260により端末装置300へ送られる。端末装置300において、評価結果取得部310は、情報処理装置200から送信された評価結果のデータを受け取る。表示画像生成部320は、取得した評価結果のデータに基づき、評価結果を視覚的に示す出力画像を生成する。表示制御部330は、生成された出力画像を表示装置304に表示させる。
以上、本実施形態による非言語情報評価システム10について説明したが、本実施形態の具体的構成は上記のものに限定されない。例えば、上記の構成では、ビデオカメラ100で取得した動画を情報処理装置200が処理し、得られた評価結果を出力手段としての端末装置300が表示出力するとした。これに対し、情報処理装置200が出力手段を兼ねる構成としてもよい。すなわち、情報処理装置200と端末装置300とを分けず、例えば、情報処理装置200自身が液晶ディスプレイ等の表示装置を備える構成とし、評価結果の表示出力を行うようにしてもよい。また、上記の実施形態では、ビデオカメラ100で撮影することにより評価対象者の画像を取得したが、別途用意された画像データを情報処理装置200が解析し、評価しても良い。例えば、別途撮影し、磁気ディスク装置等の記憶装置に蓄積された画像データを読み込んで評価しても良い。
Claims (8)
- 参加者の動画を取得する第1取得手段と、
前記第1取得手段よりも高い倍率で参加者の動画を取得する第2取得手段と、
前記第1取得手段および前記第2取得手段により取得された動画データを解析して動画に映っている人物の行動を評価する行動評価手段と、
前記行動評価手段による評価結果を出力する出力手段と、を備え、
前記行動評価手段は、
前記第1取得手段または前記第2取得手段により取得された動画に映っている人体の部位を特定し、特定された部位の動作を検出する動作検出部と、
前記動作検出部により検出された人体の部位の動作に基づき、予め定められた評価項目における評価対象として定義された行動を抽出する行動抽出部と、
前記行動抽出部により抽出された行動および前記評価項目ごとに予め定められた評価基準に基づき、当該評価項目ごとの評価を行う評価部と、を備え、
前記動作検出部は、前記第1取得手段により取得された動画を用いて動作の検出を行い、当該第1取得手段により取得された動画が予め定められた切り替え条件を満たす場合に、前記第2取得手段により取得された動画を用いて動作の検出を行うことを特徴とする、評価システム。 - 前記動作検出部の処理結果および前記行動抽出部の処理結果のうち少なくとも一つの処理結果に基づいて、処理対象の動画を、前記第1取得手段により取得された動画から前記第2取得手段により取得された動画に切り替えることを特徴とする、請求項1に記載の評価システム。
- 前記動作検出部が前記第1取得手段により取得された動画に基づいて検出した動作の時間経過に伴う変化が、予め定められた変化量よりも小さい場合に、処理対象の動画を、当該第1取得手段により取得された動画から前記第2取得手段により取得された動画に切り替えることを特徴とする、請求項2に記載の評価システム。
- 前記行動抽出部により抽出された行動が、予め定められた条件を満たす場合に、処理対象の動画を、前記第1取得手段により取得された動画から前記第2取得手段により取得された動画に切り替えることを特徴とする、請求項2に記載の評価システム。
- 前記第1取得手段により取得された動画に映っている人体の部位の画像が予め定められた大きさよりも小さい場合に、処理対象の動画を、前記第1取得手段により取得された動画から前記第2取得手段により取得された動画に切り替えることを特徴とする、請求項1に記載の評価システム。
- 参加者が撮影された倍率の異なる複数の動画データを取得する動画データ取得部と、
前記動画データ取得部により取得された動画に映っている人体の部位を特定し、特定された部位の動作を検出する動作検出部と、
前記動作検出部により検出された人体の部位の動作に基づき、予め定められた評価項目における評価対象として定義された行動を抽出する行動抽出部と、
前記行動抽出部により抽出された行動および前記評価項目ごとに予め定められた評価基準に基づき、当該評価項目ごとの評価を行う評価部と、を備え、
前記動作検出部は、一の動画データを用いて動作の検出を行い、当該動画データが予め定められた切り替え条件を満たす場合に、当該一の動画データよりも高い倍率で撮影された他の動画データを用いて動作の検出を行うことを特徴とする、情報処理装置。 - 前記動作検出部は、当該動作検出部の処理結果および前記行動抽出部の処理結果のうち少なくとも一つの処理結果に基づいて、処理対象の動画データを、前記一の動画データから前記他の動画データに切り替えることを特徴とする、請求項6に記載の情報処理装置。
- コンピュータを、
参加者が撮影された倍率の異なる複数の動画データを取得する動画データ取得手段と、
前記動画データ取得手段により取得された動画に映っている人体の部位を特定し、特定された部位の動作を検出する動作検出手段と、
前記動作検出手段により検出された人体の部位の動作に基づき、予め定められた評価項目における評価対象として定義された行動を抽出する行動抽出手段と、
前記行動抽出手段により抽出された行動および前記評価項目ごとに予め定められた評価基準に基づき、当該評価項目ごとの評価を行う評価手段として機能させ、
前記動作検出手段において、一の動画データを用いて動作の検出を行い、当該動画データが予め定められた切り替え条件を満たす場合に、当該一の動画データよりも高い倍率で撮影された他の動画データを用いて動作の検出を行うことを特徴とする、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016184837A JP6859641B2 (ja) | 2016-09-21 | 2016-09-21 | 評価システム、情報処理装置およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016184837A JP6859641B2 (ja) | 2016-09-21 | 2016-09-21 | 評価システム、情報処理装置およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018049482A JP2018049482A (ja) | 2018-03-29 |
JP6859641B2 true JP6859641B2 (ja) | 2021-04-14 |
Family
ID=61767678
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016184837A Active JP6859641B2 (ja) | 2016-09-21 | 2016-09-21 | 評価システム、情報処理装置およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6859641B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109118512B (zh) * | 2018-08-13 | 2022-03-08 | 中国矿业大学 | 一种基于机器视觉的课堂迟到早退检测方法 |
JP7442280B2 (ja) | 2019-08-21 | 2024-03-04 | 興和株式会社 | 情報表示システム及び情報表示装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007102344A (ja) * | 2005-09-30 | 2007-04-19 | Fujifilm Corp | 自動評価装置、プログラムおよび方法 |
-
2016
- 2016-09-21 JP JP2016184837A patent/JP6859641B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018049482A (ja) | 2018-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6859640B2 (ja) | 情報処理装置、評価システムおよびプログラム | |
Gunes et al. | A bimodal face and body gesture database for automatic analysis of human nonverbal affective behavior | |
Otsuka et al. | A realtime multimodal system for analyzing group meetings by combining face pose tracking and speaker diarization | |
US10887548B2 (en) | Scaling image of speaker's face based on distance of face and size of display | |
US9639770B2 (en) | System and method for improving communication productivity | |
KR20170136538A (ko) | 비디오 회의에서의 감정 인식 | |
DE102018102194A1 (de) | Elektronische Einrichtung, Informationsverarbeitungsverfahren und Programm | |
US20140145936A1 (en) | Method and system for 3d gesture behavior recognition | |
JP4704174B2 (ja) | 状態識別装置、プログラムおよび方法 | |
JP7139680B2 (ja) | 活性度評価プログラム、装置、及び方法 | |
CN114779922A (zh) | 教学设备的控制方法、控制设备、教学系统和存储介质 | |
Tanveer et al. | Do you see what I see? Designing a sensory substitution device to access non-verbal modes of communication | |
JP6819194B2 (ja) | 情報処理システム、情報処理装置およびプログラム | |
JP6859641B2 (ja) | 評価システム、情報処理装置およびプログラム | |
CN109986553B (zh) | 一种主动交互的机器人、系统、方法及存储装置 | |
JP6855737B2 (ja) | 情報処理装置、評価システムおよびプログラム | |
US20220327732A1 (en) | Information processing apparatus, information processing method, and program | |
Suryani et al. | Multi-modal asian conversation mobile video dataset for recognition task | |
KR20180074124A (ko) | 얼굴 인식을 통해 전자 장치를 제어하는 방법 및 이를 수행하는 전자 장치 | |
JP2018049480A (ja) | 情報処理装置、評価システムおよびプログラム | |
JP2018049173A (ja) | 情報処理装置、評価システムおよびプログラム | |
JP2018049479A (ja) | 情報処理装置、評価システムおよびプログラム | |
Komiya et al. | Image-based attention level estimation of interaction scene by head pose and gaze information | |
Wyrembelski | Detection of the Selected, Basic Emotion Based on Face Expression Using Kinect | |
KR102668933B1 (ko) | 맞춤형 서비스 제공 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190830 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201009 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201020 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210309 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6859641 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |