JP6172755B2 - 感情情報推定装置、方法及びプログラム - Google Patents
感情情報推定装置、方法及びプログラム Download PDFInfo
- Publication number
- JP6172755B2 JP6172755B2 JP2014068535A JP2014068535A JP6172755B2 JP 6172755 B2 JP6172755 B2 JP 6172755B2 JP 2014068535 A JP2014068535 A JP 2014068535A JP 2014068535 A JP2014068535 A JP 2014068535A JP 6172755 B2 JP6172755 B2 JP 6172755B2
- Authority
- JP
- Japan
- Prior art keywords
- motion
- emotion
- emotion information
- information
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Description
[手順2] 時間軸上で前記行動データを複数の小さな動き(action)に分割する。
[手順3] 動き(action)ごとに特徴量を抽出する。必要時に次元削減を行う。
[手順4] 感情情報を推定する。
Claims (9)
- 行動データを時間軸上で動作素片へと分割すると共に、各動作素片を分類して複数の動作種別のいずれに該当するかを特定するモーション解析部と、
各動作素片より特徴量を算出する特徴量算出部と、
前記算出された特徴量に基づき、各動作素片が複数の感情情報のいずれに該当するかを推定する素片感情推定部と、
動作素片ごとに前記推定された感情情報を前記行動データの全体に渡って統合することにより、前記行動データが複数の感情情報のいずれに該当するかを特定する感情統合部と、を備え、
前記感情統合部は、動作素片ごとに前記特定された動作種別に対する重み情報を用いて、前記統合することを特徴とする感情情報推定装置。 - 前記重み情報は、動作種別ごとに所定値の重みが与えられることにより予め定められたものであることを特徴とする請求項1に記載の感情情報推定装置。
- 前記感情統合部は、前記行動データにおいて、動作素片の感情情報の分布を動作種別ごとに求め、当該分布に基づいて動作種別ごとの前記重み情報を求めることを特徴とする請求項1に記載の感情情報推定装置。
- 前記感情統合部は、前記分布より各動作種別における感情情報の確率を求め、当該確率より各動作種別のエントロピーを求め、当該エントロピーに基づいて、動作種別ごとの前記重み情報を求めることを特徴とする請求項3に記載の感情情報推定装置。
- 前記素片感情推定部は、
学習用行動データより得られた一連の動作素片より算出された特徴量と、当該学習用行動データに予めラベルとして付与されている感情情報と、によって学習を実施して構築された分類器を用いることで、
前記算出された特徴量に基づき、前記行動データにおける各動作素片が複数の感情情報のいずれに該当するかを推定することを特徴とする請求項1に記載の感情情報推定装置。 - 前記感情統合部は、
前記学習用行動データより得られた一連の動作素片が複数の動作種別のいずれに該当するかを特定すると共に、
前記学習用行動データより得られた一連の動作素片に対して前記分類器を適用して得られる、動作素片の感情情報の分布を動作種別ごとに求め、当該分布に基づいて動作種別ごとの前記重み情報を求めることを特徴とする請求項5に記載の感情情報推定装置。 - 前記感情統合部は、前記学習用データに前記分類器を適用して得られた動作種別ごとの動作素片の感情情報を、前記学習用行動データに予めラベルとして付与されている感情情報と比較することにより、動作種別ごとの感情情報の推定の正解率を求め、当該正解率に基づいて、動作種別ごとの前記重み情報を求めることを特徴とする請求項6に記載の感情情報推定装置。
- 行動データを時間軸上で動作素片へと分割すると共に、各動作素片を分類して複数の動作種別のいずれに該当するかを特定するモーション解析段階と、
各動作素片より特徴量を算出する特徴量算出段階と、
前記算出された特徴量に基づき、各動作素片が複数の感情情報のいずれに該当するかを推定する素片感情推定段階と、
動作素片ごとに前記推定された感情情報を前記行動データの全体に渡って統合することにより、前記行動データが複数の感情情報のいずれに該当するかを特定する感情統合段階と、を備え、
前記感情統合段階では、動作素片ごとに前記特定された動作種別に対する重み情報を用いて、前記統合することを特徴とする感情情報推定方法。 - コンピュータを請求項1ないし7のいずれかに記載の感情情報推定装置として機能させることを特徴とする感情情報推定プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014068535A JP6172755B2 (ja) | 2014-03-28 | 2014-03-28 | 感情情報推定装置、方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014068535A JP6172755B2 (ja) | 2014-03-28 | 2014-03-28 | 感情情報推定装置、方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015191471A JP2015191471A (ja) | 2015-11-02 |
JP6172755B2 true JP6172755B2 (ja) | 2017-08-02 |
Family
ID=54425903
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014068535A Active JP6172755B2 (ja) | 2014-03-28 | 2014-03-28 | 感情情報推定装置、方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6172755B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019207714A1 (ja) * | 2018-04-26 | 2019-10-31 | 日本電気株式会社 | 動作推定システム、動作推定方法および動作推定プログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009009413A (ja) * | 2007-06-28 | 2009-01-15 | Sanyo Electric Co Ltd | 動作検知装置及び動作検知プログラム、並びに動作基本モデル生成装置及び動作基本モデル生成プログラム |
JP4922095B2 (ja) * | 2007-08-01 | 2012-04-25 | 日本放送協会 | 感情表現抽出処理装置及びプログラム |
JP5506738B2 (ja) * | 2011-05-30 | 2014-05-28 | 日本電信電話株式会社 | 怒り感情推定装置、怒り感情推定方法およびそのプログラム |
-
2014
- 2014-03-28 JP JP2014068535A patent/JP6172755B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015191471A (ja) | 2015-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Aslan et al. | Shape feature encoding via fisher vector for efficient fall detection in depth-videos | |
Li et al. | Data-free prior model for facial action unit recognition | |
Xu et al. | A hierarchical spatio-temporal model for human activity recognition | |
KR20180057096A (ko) | 표정 인식과 트레이닝을 수행하는 방법 및 장치 | |
Mavroudi et al. | End-to-end fine-grained action segmentation and recognition using conditional random field models and discriminative sparse coding | |
Mici et al. | A self-organizing neural network architecture for learning human-object interactions | |
JP2023504649A (ja) | 仮想オブジェクトのモーションシーケンスの合成方法及び生成方法、並びに合成装置、コンピュータプログラム | |
Uddin | Human activity recognition using segmented body part and body joint features with hidden Markov models | |
CN110738650B (zh) | 一种传染病感染识别方法、终端设备及存储介质 | |
Kumar et al. | 3D sign language recognition using spatio temporal graph kernels | |
Ribet et al. | Survey on style in 3d human body motion: Taxonomy, data, recognition and its applications | |
Zhang et al. | Intelligent Facial Action and emotion recognition for humanoid robots | |
Singh et al. | Recent trends in human activity recognition–A comparative study | |
Batool et al. | Telemonitoring of daily activities based on multi-sensors data fusion | |
Meena et al. | Seq2Dense U-Net: Analysing Sequential Inertial Sensor data for Human Activity Recognition using Dense Segmentation Model | |
Turaev et al. | Review and analysis of patients’ body language from an artificial intelligence perspective | |
JP6172755B2 (ja) | 感情情報推定装置、方法及びプログラム | |
Vaijayanthi et al. | Human Emotion Recognition from Body Posture with Machine Learning Techniques | |
Rallis et al. | Bidirectional long short-term memory networks and sparse hierarchical modeling for scalable educational learning of dance choreographies | |
Granata et al. | Human activity-understanding: A multilayer approach combining body movements and contextual descriptors analysis | |
Batool et al. | Fundamental Recognition of ADL Assessments Using Machine Learning Engineering | |
Latha et al. | Human action recognition using deep learning methods (CNN-LSTM) without sensors | |
Hoang et al. | Advances in Skeleton-Based Fall Detection in RGB Videos: from Handcrafted to Deep Learning Approaches | |
Coolen | Recognising gestures using time-series analysis | |
Huynh et al. | Robust classification of human actions from 3D data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160729 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160822 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170626 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170628 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170629 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6172755 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |