JP6855737B2 - 情報処理装置、評価システムおよびプログラム - Google Patents
情報処理装置、評価システムおよびプログラム Download PDFInfo
- Publication number
- JP6855737B2 JP6855737B2 JP2016197553A JP2016197553A JP6855737B2 JP 6855737 B2 JP6855737 B2 JP 6855737B2 JP 2016197553 A JP2016197553 A JP 2016197553A JP 2016197553 A JP2016197553 A JP 2016197553A JP 6855737 B2 JP6855737 B2 JP 6855737B2
- Authority
- JP
- Japan
- Prior art keywords
- behavior
- evaluation
- unit
- extracted
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
動画データに映っている人体の部位を特定し、特定された部位の動作を検出する動作検出部と、
前記動作検出部により検出された人体の部位の動作に基づき、予め定められた評価項目における評価対象として定義された行動を抽出する行動抽出部と、
前記行動抽出部により抽出された行動を発話中の行動か否かに応じて分類する分類部と、
前記行動抽出部により抽出された行動に関し、前記分類部により分類された発話中の行動である場合と非発話中の行動である場合の各々に対して設定された前記評価項目および当該評価項目ごとの評価基準に基づき、発話中の行動および非発話中の行動に対する各々の当該評価項目ごとの評価を行う評価部と、
を備えることを特徴とする、情報処理装置である。
本発明の請求項2に係る情報処理装置は、
前記評価部は、前記分類部による分類に基づき、前記行動抽出部により抽出された行動の少なくとも一部に対し、発話中に行われた行動と発話中でないときに行われた行動とで異なる評価を行うことを特徴とする、請求項1に記載の情報処理装置である。
本発明の請求項3に係る情報処理装置は、
前記分類部は、前記行動抽出部により抽出された行動のうち、口を動かす動作に基づいて、発話中か否かを特定することを特徴とする、請求項1または請求項2に記載の情報処理装置である。
本発明の請求項4に係る情報処理装置は、
前記分類部は、前記動画データと共に取得された音声に基づいて、または、当該音声と前記行動抽出部により抽出された行動のうちの口を動かす動作とに基づいて、発話中か否かを特定することを特徴とする、請求項1または請求項2に記載の情報処理装置である。
本発明の請求項5に係る評価システムは、
動画データを取得する取得手段と、
前記取得手段により取得された動画データを解析して動画に映っている人物の行動を評価する行動評価手段と、
前記行動評価手段による評価結果を出力する出力手段と、を備え、
前記行動評価手段は、
動画データに映っている人体の部位を特定し、特定された部位の動作を検出する動作検出部と、
前記動作検出部により検出された人体の部位の動作に基づき、予め定められた評価項目における評価対象として定義された行動を抽出する行動抽出部と、
前記行動抽出部により抽出された行動を発話中の行動か否かに応じて分類する分類部と、
前記行動抽出部により抽出された行動に関し、前記分類部により分類された発話中の行動である場合と非発話中の行動である場合の各々に対して設定された前記評価項目および当該評価項目ごとの評価基準に基づき、発話中の行動および非発話中の行動に対する各々の当該評価項目ごとの評価を行う評価部と、
を備えることを特徴とする、評価システムである。
本発明の請求項6に係る評価システムは、
前記行動評価手段の前記分類部は、前記行動抽出部により抽出された行動のうち、口を動かす動作に基づいて、発話中か否かを特定することを特徴とする、請求項5に記載の評価システムである。
本発明の請求項7に係る評価システムは、
音声を収録する音声収録手段をさらに備え、
前記行動評価手段の前記分類部は、前記取得手段により取得された前記動画データと共に前記音声収録手段により収録された音声に基づいて、または、当該音声と前記行動抽出部により抽出された行動のうちの口を動かす動作とに基づいて、発話中か否かを特定することを特徴とする、請求項5に記載の評価システムである。
本発明の請求項8に係るプログラムは、
コンピュータを、
動画データに映っている人体の部位を特定し、特定された部位の動作を検出する動作検出手段と、
前記動作検出手段により検出された人体の部位の動作に基づき、予め定められた評価項目における評価対象として定義された行動を抽出する行動抽出手段と、
前記行動抽出手段により抽出された行動を発話中の行動か否かに応じて分類する分類手段と、
前記行動抽出手段により抽出された行動に関し、前記分類手段により分類された発話中の行動である場合と非発話中の行動である場合の各々に対して設定された前記評価項目および当該評価項目ごとの評価基準に基づき、発話中の行動および非発話中の行動に対する各々の当該評価項目ごとの評価を行う評価手段として機能させること、
を特徴とする、プログラムである。
請求項2の発明によれば、言語情報に基づいて面接志望者を評価する構成と比較して、発話中の行動か否かの区別を非言語情報としての行動の評価に反映させ、精度の高い評価を行うことができる。
請求項3の発明によれば、非言語情報としての行動として抽出される動作を用いることにより、効率よく発話中か否かの判断を行うことができる。
請求項4の発明によれば、音声情報を参酌することにより、発話中か否かの判断を精度よく行うことができる。
請求項5の発明によれば、言語情報に基づいて面接志望者を評価する構成と比較して、取得手段により取得した動画を用いて、発話中や発話していないときの非言語情報としての行動に基づく評価を支援することができる。
請求項6の発明によれば、非言語情報としての行動として抽出される動作を用いることにより、効率よく発話中か否かの判断を行うことができる。
請求項7の発明によれば、音声情報を参酌することにより、発話中か否かの判断を精度よく行うことができる。
請求項8の発明によれば、言語情報に基づいて面接志望者を評価する構成と比較して、本発明のプログラムを実行するコンピュータにおいて、発話中や発話していないときの非言語情報としての行動に基づく評価を支援することができる。
図1は、本実施形態が適用される非言語情報評価システムの構成例を示す図である。図1に示すように、本実施形態による非言語情報評価システム10は、動画取得装置としてのビデオカメラ100と、動画解析装置としての情報処理装置200と、情報処理装置200による解析結果を出力する出力装置としての端末装置300とを備える。ビデオカメラ100と情報処理装置200、情報処理装置200と端末装置300は、それぞれネットワーク20を介して接続されている。
情報処理装置200の領域識別部220による処理について説明する。領域識別部220は、ビデオカメラ100により撮影された動画から、その動画に映っている人物の動作に係る部位を識別する。この部位の識別には、既存の種々の画像解析技術を適用してよい。例えば、顔や笑顔の識別は、デジタルカメラ等で実現されている既存の識別手法を用いてよい。また、動画に映されている特定の形状の部分(領域)やそのような複数の部分の配置等に基づいて、身体の部位が映っている領域を特定し得る。さらに一例として、フレーム間特徴量に基づく識別を行ってもよい。具体的には、動画データの連続する2枚以上のフレームの差分に基づき、フレーム間特徴量を求める。ここで、フレーム間特徴量としては、例えば、色の境界(エッジ)、色の変化量、これらによって特定される領域の移動方向や移動量などが用いられる。予め設定された時間分のフレーム間特徴量を累積し、フレームごとのフレーム間特徴量の距離や類似度に基づいて、フレーム間特徴量を分類、統合する。これにより、動画において連携して変化する領域が特定され、身体の部位が映っている領域が識別される。
動作検出部230による処理について説明する。動作検出部230は、領域識別部220により識別された身体の部位が映っている領域を解析して、具体的にどの部位が映っているかを特定し、特定した部位ごとの動きを検出する。この動きの検出には、既存の種々の画像解析技術を適用してよい。検出される動きは、特定された部位ごとに身体動作として起こり得る動きである。例えば、目を閉じたり口を開けたりする動き、視線の変化、顔の向きを上下や左右に変える動き、肘の曲げ伸ばしや腕を振る動き、手指の曲げ伸ばしや手を開いたり閉じたりする動き、腰の曲げ伸ばしや体を捻じる動き、膝の曲げ伸ばしや脚を振る動き、歩行等による身体の移動などが検出される。なお、これらの動きは例示に過ぎず、本実施形態の非言語情報評価システム10で検出し得る動きは、上記に提示した動きに限定されない。本実施形態では、動作検出部230は、領域識別部220で領域として識別された全ての部位の動きを検出してもよいし、後段の非言語情報抽出部240で抽出される動作を特定するための動き等に限定して検出してもよい。例えば、非言語情報抽出部240でうなずく動作のみを抽出するのであれば、顔の向きを上下に変えるような頭の動きを検出すればよい。
非言語情報抽出部240による処理について説明する。非言語情報抽出部240は、動作検出部230により検出された部位の動きに基づいて、評価対象者が意識的にまたは無意識的に行った意味のある行動を非言語情報として抽出する。例えば、顔の向きを上下に変える動きからうなずくという動作を抽出したり、口を動かす動きから発話や欠伸という動作を抽出したり、腕を上げる動きから挙手という動作を抽出したりする。非言語情報の抽出は、単に動作検出部230により検出された部位の動きのみに基づいて行われるのではなく、例えば、検出された動きの前後における該当部位の動き、周囲の部位や他の人物の動き、動きが検出された場面や文脈(背景)等の情報も参酌して行われる。具体例を挙げると、顔の向きを上下に連続的に変える動きが特定の時間内で行われたとき、この動きは、うなずきの動作として抽出される。一方、顔の向きが上を向き、ある程度の時間が経過した後に下方向へ動いてもとに戻ったとき、この動きは、思考するために上方を見上げた動作として抽出される。また、顔の向きが下を向き、ある程度の時間が経過したとき、この動作は、居眠りしていることを示す動作として抽出される。なお、これらの動作や参酌情報は例示に過ぎず、本実施形態の非言語情報評価システム10で非言語情報として抽出し得る動作や参酌情報は、上記に提示した動作や情報に限定されない。
分類部245による処理について説明する。分類部245は、まず、非言語情報抽出部240により抽出された非言語情報としての行動のうち、発話を表す行動を検出する。例えば、口の連続的な開閉動作を発話動作として検出し得る。次に、分類部245は、非言語情報抽出部240により抽出された非言語情報としての他の行動を、評価対象者が話者であるときの行動と、評価対象者が話者でないときの行動とに分類する。この分類により、非言語情報として抽出された行動の意義が変わる。例えば、評価対象者自身の発話中に身振り手振りを行うことは発話内容を補足する意義を有することがあるのに対し、他者の発話中に身振り手振りを行うことは他者の発話に注意を向けていないことを表すことがある。また、髪に触れたり、視線や顔の向きを動かしたりする動作は、自身の発話中の行動であれば、あまり否定的な評価とはならないが、他者の発話中の行動では、非常に否定的な評価の根拠となり得る。なお、非言語情報として抽出される行動であっても、評価対象者の発話中か否かを無視してよい(意義の変わらない)行動もあると考えられる。そこで、評価対象者のどのような行動に対して、評価対象者の発話中の行動か否かに基づく分類を行うかは、面接の目的や形式等に応じて予め設定してもよい。
反応評価部250による処理について説明する。反応評価部250は、非言語情報抽出部240により抽出された非言語情報に基づき、面接における評価対象者(面接志望者)の反応を評価する。例えば、上述したように、自身の発話以外のときに手が動いたり、顔の向きが頻繁に変わったりした場合は、低い(悪い)評価値が与えられる。また、質問に対する応答の動作が、予め定められた第1の基準時間よりも早く行われた(すなわち応答が速い)場合は、高い(良い)評価値が与えられ、第1の基準時間よりも長い予め定められた第2の基準時間よりも遅く行われた(すなわち、応答が遅い)場合は、低い評価値が与えられる。その他、話者から視線を外したり、視線が下向きであったり、面接の内容や進行とは関係なく手や足が動いたりした場合は、低い評価値が与えられる等、面接の目的等に応じて様々な評価項目および評価基準を設定してよい。面接全般における評価対象者に対する評価は、例えば、面接中に非言語情報としての行動が出現するたびに与えられた評価値を合計して得る。
図7は、本実施形態の非言語情報評価システム10において、ビデオカメラ100により撮影された画像の例を示す図である。図7に示す例では、一人の評価対象者(面接志望者)が画面に捉えられている。ここでは、一人の面接官と一人の評価対象者との面接が行われているものとする。したがって、話者は面接官か評価対象者のいずれか一方となる。図示の例において、評価対象者は正面(ビデオカメラ100の方向)を向いており、面接官は画像に入っていない。このような場面では、評価対象者自身が話者でないときの動作や、視線や顔の向きを正面から外したり頻繁に動かしたりするような動作は、評価を下げる大きな要素となる。一方、面接官が複数いる場合、評価対象者は、各面接官に視線を合わせるため、発話中であっても、発話していないときであっても、度々、視線や顔の向きを変えることが考えられる。したがって、評価基準については、面接の形式等に応じて、様々な設定が行われることが必要である。
以上、本実施形態による非言語情報評価システム10について説明したが、本実施形態の具体的構成は上記のものに限定されない。例えば、上記の構成では、ビデオカメラ100で取得した動画を情報処理装置200が処理し、得られた評価結果を出力手段としての端末装置300が表示出力するシステム構成とした。これに対し、情報処理装置200が、別途撮影され、記憶装置に蓄積された面接の動画を解析し、面接志望者の評価を行う構成としても良い。
Claims (8)
- 動画データに映っている人体の部位を特定し、特定された部位の動作を検出する動作検出部と、
前記動作検出部により検出された人体の部位の動作に基づき、予め定められた評価項目における評価対象として定義された行動を抽出する行動抽出部と、
前記行動抽出部により抽出された行動を発話中の行動か否かに応じて分類する分類部と、
前記行動抽出部により抽出された行動に関し、前記分類部により分類された発話中の行動である場合と非発話中の行動である場合の各々に対して設定された前記評価項目および当該評価項目ごとの評価基準に基づき、発話中の行動および非発話中の行動に対する各々の当該評価項目ごとの評価を行う評価部と、
を備えることを特徴とする、情報処理装置。 - 前記評価部は、前記分類部による分類に基づき、前記行動抽出部により抽出された行動の少なくとも一部に対し、発話中に行われた行動と発話中でないときに行われた行動とで異なる評価を行うことを特徴とする、請求項1に記載の情報処理装置。
- 前記分類部は、前記行動抽出部により抽出された行動のうち、口を動かす動作に基づいて、発話中か否かを特定することを特徴とする、請求項1または請求項2に記載の情報処理装置。
- 前記分類部は、前記動画データと共に取得された音声に基づいて、または、当該音声と前記行動抽出部により抽出された行動のうちの口を動かす動作とに基づいて、発話中か否かを特定することを特徴とする、請求項1または請求項2に記載の情報処理装置。
- 動画データを取得する取得手段と、
前記取得手段により取得された動画データを解析して動画に映っている人物の行動を評価する行動評価手段と、
前記行動評価手段による評価結果を出力する出力手段と、を備え、
前記行動評価手段は、
動画データに映っている人体の部位を特定し、特定された部位の動作を検出する動作検出部と、
前記動作検出部により検出された人体の部位の動作に基づき、予め定められた評価項目における評価対象として定義された行動を抽出する行動抽出部と、
前記行動抽出部により抽出された行動を発話中の行動か否かに応じて分類する分類部と、
前記行動抽出部により抽出された行動に関し、前記分類部により分類された発話中の行動である場合と非発話中の行動である場合の各々に対して設定された前記評価項目および当該評価項目ごとの評価基準に基づき、発話中の行動および非発話中の行動に対する各々の当該評価項目ごとの評価を行う評価部と、
を備えることを特徴とする、評価システム。 - 前記行動評価手段の前記分類部は、前記行動抽出部により抽出された行動のうち、口を動かす動作に基づいて、発話中か否かを特定することを特徴とする、請求項5に記載の評価システム。
- 音声を収録する音声収録手段をさらに備え、
前記行動評価手段の前記分類部は、前記取得手段により取得された前記動画データと共に前記音声収録手段により収録された音声に基づいて、または、当該音声と前記行動抽出部により抽出された行動のうちの口を動かす動作とに基づいて、発話中か否かを特定することを特徴とする、請求項5に記載の評価システム。 - コンピュータを、
動画データに映っている人体の部位を特定し、特定された部位の動作を検出する動作検出手段と、
前記動作検出手段により検出された人体の部位の動作に基づき、予め定められた評価項目における評価対象として定義された行動を抽出する行動抽出手段と、
前記行動抽出手段により抽出された行動を発話中の行動か否かに応じて分類する分類手段と、
前記行動抽出手段により抽出された行動に関し、前記分類手段により分類された発話中の行動である場合と非発話中の行動である場合の各々に対して設定された前記評価項目および当該評価項目ごとの評価基準に基づき、発話中の行動および非発話中の行動に対する各々の当該評価項目ごとの評価を行う評価手段として機能させること、
を特徴とする、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016197553A JP6855737B2 (ja) | 2016-10-05 | 2016-10-05 | 情報処理装置、評価システムおよびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016197553A JP6855737B2 (ja) | 2016-10-05 | 2016-10-05 | 情報処理装置、評価システムおよびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018060374A JP2018060374A (ja) | 2018-04-12 |
JP6855737B2 true JP6855737B2 (ja) | 2021-04-07 |
Family
ID=61909991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016197553A Active JP6855737B2 (ja) | 2016-10-05 | 2016-10-05 | 情報処理装置、評価システムおよびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6855737B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20240029474A1 (en) * | 2020-09-16 | 2024-01-25 | Nec Corporation | Person evaluation information generation method |
KR20220037129A (ko) | 2020-09-17 | 2022-03-24 | 이태규 | 피면접자에 대한 실시간 면접 평가를 제공하는 방법 및 이를 이용한 컴퓨팅 장치 |
CN116091963B (zh) * | 2022-12-22 | 2024-05-17 | 广州奥咨达医疗器械技术股份有限公司 | 临床试验机构质量评估方法、装置、电子设备及存储介质 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11272785A (ja) * | 1998-03-25 | 1999-10-08 | Hitachi Ltd | 多通貨電子マネー処理装置および方法 |
JP3652961B2 (ja) * | 2000-06-27 | 2005-05-25 | シャープ株式会社 | 音声処理装置、音声・動画像処理装置及び音声・動画像処理プログラムを記録した記録媒体 |
EP1544831A1 (en) * | 2002-09-27 | 2005-06-22 | Ginganet Corporation | Remote education system, course attendance check method, and course attendance check program |
JP2006330464A (ja) * | 2005-05-27 | 2006-12-07 | Fujifilm Holdings Corp | 受講状態判別装置および方法並びにプログラム |
JP4992218B2 (ja) * | 2005-09-29 | 2012-08-08 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
JP2013008114A (ja) * | 2011-06-23 | 2013-01-10 | Hitachi Government & Public Corporation System Engineering Ltd | 会議品質評価装置及び会議品質評価方法 |
JP6285377B2 (ja) * | 2015-02-26 | 2018-02-28 | 日本電信電話株式会社 | コミュニケーションスキル評価フィードバック装置、コミュニケーションスキル評価フィードバック方法及びコミュニケーションスキル評価フィードバックプログラム |
US9576190B2 (en) * | 2015-03-18 | 2017-02-21 | Snap Inc. | Emotion recognition in video conferencing |
JP5939493B1 (ja) * | 2015-05-25 | 2016-06-22 | パナソニックIpマネジメント株式会社 | 接客評価装置およびこれを備えた接客評価システムならびに接客評価方法 |
-
2016
- 2016-10-05 JP JP2016197553A patent/JP6855737B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018060374A (ja) | 2018-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11206450B2 (en) | System, apparatus and method for providing services based on preferences | |
US9767349B1 (en) | Learning emotional states using personalized calibration tasks | |
US9852327B2 (en) | Head-pose invariant recognition of facial attributes | |
CN104808794B (zh) | 一种唇语输入方法和系统 | |
US9159362B2 (en) | Method and system for detecting and recognizing social interactions in a video | |
JP6859640B2 (ja) | 情報処理装置、評価システムおよびプログラム | |
JP7392492B2 (ja) | 時間的視覚的な顔の特徴に基づく認知及び発話障害検出のための方法、サーバ及びプログラム | |
Shen et al. | Understanding nonverbal communication cues of human personality traits in human-robot interaction | |
US10015445B1 (en) | Room conferencing system with heat map annotation of documents | |
JP7151959B2 (ja) | 映像アライメント方法及びその装置 | |
Khatri et al. | Facial expression recognition: A survey | |
JP6855737B2 (ja) | 情報処理装置、評価システムおよびプログラム | |
JP2018032164A (ja) | 面接システム | |
CN109986553B (zh) | 一种主动交互的机器人、系统、方法及存储装置 | |
Anghelescu et al. | Surveillance system using IP camera and face-detection algorithm | |
CN112087590A (zh) | 图像处理方法、装置、系统及计算机存储介质 | |
WO2015118061A1 (en) | Method and system for displaying content to a user | |
JP7032284B2 (ja) | ユーザの顔の映像に基づいて発動タイミングを推定する装置、プログラム及び方法 | |
JP6859641B2 (ja) | 評価システム、情報処理装置およびプログラム | |
KR102395410B1 (ko) | 비마커 방식을 이용한 수어 아바타 제공 시스템 및 그 제공 방법 | |
Shahid et al. | Comparisons of visual activity primitives for voice activity detection | |
CN115132027A (zh) | 基于多模态深度学习的智慧编程学习系统及学习方法 | |
Buddhika et al. | Smart photo editor for differently-abled people using assistive technology | |
US11210335B2 (en) | System and method for judging situation of object | |
Wyrembelski | Detection of the Selected, Basic Emotion Based on Face Expression Using Kinect |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190910 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200825 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201021 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210216 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210301 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6855737 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |