JP6249490B2 - 人間の心的状態の評価装置 - Google Patents
人間の心的状態の評価装置 Download PDFInfo
- Publication number
- JP6249490B2 JP6249490B2 JP2014551900A JP2014551900A JP6249490B2 JP 6249490 B2 JP6249490 B2 JP 6249490B2 JP 2014551900 A JP2014551900 A JP 2014551900A JP 2014551900 A JP2014551900 A JP 2014551900A JP 6249490 B2 JP6249490 B2 JP 6249490B2
- Authority
- JP
- Japan
- Prior art keywords
- signal
- subjects
- relationship
- evaluation
- mental state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims description 76
- 230000006996 mental state Effects 0.000 title claims description 63
- 241000282414 Homo sapiens Species 0.000 title description 10
- 230000033764 rhythmic process Effects 0.000 claims description 39
- 238000004891 communication Methods 0.000 claims description 18
- 238000004458 analytical method Methods 0.000 claims description 16
- 238000010586 diagram Methods 0.000 description 34
- 230000033001 locomotion Effects 0.000 description 27
- 238000002474 experimental method Methods 0.000 description 26
- 238000000034 method Methods 0.000 description 19
- 230000001133 acceleration Effects 0.000 description 11
- 238000012986 modification Methods 0.000 description 11
- 230000004048 modification Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 9
- 238000005259 measurement Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 230000001360 synchronised effect Effects 0.000 description 6
- 238000012795 verification Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 241000282412 Homo Species 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 230000001755 vocal effect Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000006461 physiological response Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000027288 circadian rhythm Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000009223 counseling Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4803—Speech analysis specially adapted for diagnostic purposes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/90—Pitch determination of speech signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/93—Discriminating between voiced and unvoiced parts of speech signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0219—Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Psychiatry (AREA)
- Biophysics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physiology (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
図1(a)、(b)は、二人の被験者から得られる生理指標の生データの例を示す波形図である。S1a、S1bは、第1話者、第2話者それぞれから1次的に得られる生理指標の生データを模式的に示す。特許文献3に記載の技術では、図1(a)のケースの方が、図1(b)のケースよりも、同調性が高いと判定される。
被験者2a、2bは、たとえば同じ空間で対面しており、コミュニケーションを行っている。コミュニケーションの種類は特に限定されず、たとえば、日常会話、ディスカッション、プレゼンテーション、レクチャー、など、さまざまなものが含まれる。
評価装置100は、非言語情報測定部10、波形解析部22、関係評価部24、個人評価部26を備える。
(i)第1信号S1を区間ごとに統計処理、信号処理した時系列信号
たとえば、第1信号を、平均や分散、標準偏差を計算し、あるいはフィルタリングすることで第2信号を生成してもよい。
(ii)第1信号S1を時間微分、時間積分した時系列信号
たとえば、第1信号が速度のディメンジョンを有する場合、第2信号S2は、加速度や変位のディメンジョンを有する。
(iii)第1信号S1を粗視化した時系列信号
この場合の第2信号S2としては、第1信号S1の包絡線などが例示される。
(iv)第1信号S1の波形を示す情報に関する時系列信号
具体的には(iv-1)波形の種類、(iv-2)スペクトル、(iv-3)周波数、(iv-4)デューティ比、(iv-5)振幅、(iv-6)波形パターンの幾何学的特徴の抽出、などが例示される。
(a) 第1信号S1の周波数情報の時系列データ
(b) 第1信号S1の位相情報の時系列データ
(c) (a)、(b)の組み合わせ
のいずれかが好適である。
以下、複数の被験者の間の心的状態として、それらの間の合意度を評価する場合について説明する。
本発明者が検討したところ、合意度を評価する場合、非言語情報測定部10が測定する非言語情報S0として、被験者2の頷き動作が有用であることを独自に認識した。
第1信号S1a、S1bは、現実に2人の被験者2が対面対話を行う状況において、頷き運動を測定して数値化したものである。実施例1において、波形解析部22は、第1信号S1の振幅を時間平均することにより、第2信号S2を生成する。
また、統計的有意性の指標であるp値を計算すると、タイムスロットTS2ではp値は<0.001となり、統計的有意性が高いことがわかる。
この実施例では、リズム関連量である第2信号S2を生成する際に、第1信号S1の周波数成分に着目する。第1信号S1は、実施例1と同様に頷き運動、より具体的にはX方向およびZ方向の加速度のノルムである。波形解析部22は、第1信号S1を周波数領域のデータに変換する。これには高速フーリエ変換などが利用できる。
S2(t)=∫F(t,f)df
図9(a)は、実施例2における第1信号S1a、S1bを示す波形図、図9(b)は、第2信号S2a、S2bを示す波形図であり、図9(c)は、第2信号S2a、S2bの相関図であり、図9(d)は、第1信号S1a、S1bの相関図である。図9(d)から計算した相関係数はr=0.05であり、2つの信号の間に相関関係は認められない。すなわち従来技術では、被験者から1次的に得られた生データである第1信号S1a、S1bの相関に着目するに過ぎないため、同調や合意が生じている場合においても、それを検出できない場合がある。これに対して実施の形態に係る評価装置100によれば、リズム関連量である第2信号S2a、S2bに変換した後に、それらの関係性を評価するため、同調や合意などを検出することができる。
この実施例では、リズム関連量である第2信号S2を生成する際に、第1信号S1の位相成分に着目する。第1信号S1は、実施例1、2と同様に頷き運動、より具体的にはX方向およびZ方向の加速度のノルムである。
関係評価部24は、第2信号S2a、S2bの位相差を第3信号S3とする。この第3信号S3は、頷き動作のリズムの位相差に相当する。図11は、第3信号S3のヒストグラムである。二人の被験者間にインターパーソナルな同調が生じている場合、頷きのタイミングもシンクロすることから、図11に実線(i)で示すように、ヒストグラムはある値(この例では0ms)にピークをもち、それを中心として分布する。これに対して同調が生じていない場合、頷きのタイミングはランダムに変動することから、図11に破線(ii)で示すように、ヒストグラムはピークをもたずに平均化される。
この実施例では、リズム関連量である第2信号S2を生成する際に第1信号S1の周波数成分に着目する点で実施例2と共通する。第1信号S1としては、頷き運動に代えて、被験者の体の動きに着目しており、被験者の体に取り付けられた加速度センサから得られるX方向、Y方向(体左右方向)、Z方向の加速度のノルムである。
S1=√(X2(t)+Y2(t)+Z2(t))
この実施例においても、実施例4と同様に、体の動きの周波数情報に着目し、第2信号S2として、被験者の体の動きの振動数ω(t)を利用する。
Sij=Σt∈Tij g(Δxi(t)・Δxj(t))/|Tij| …(1)
実施の形態では、被験者の心的状態を反映する非言語情報として、頷き運動に着目する場合について詳細に説明したが、本発明はそれには限定されない。着目する第1信号としては、心的状態が反映されるさまざまな非言語情報が利用できる。具体的には、相づち、まばたき、視線の滞留時間、身振り、手振り、首振り、体幹の揺れ、視線の動き、など、被験者の外部から視覚的に把握できるものや、会話のターンテーキング、ため息、声の調子、発話に関する非言語情報など、被験者の外部から聴覚的に把握できるもの、それらの組み合わせを利用してもよい。当業者によれば、事前の実験、検証から得られた経験則、学習にもとづいて、いずれの非言語情報に被験者のどのような心的状態が反映されるかを把握することができ、したがって、評価すべき心的状態に応じて、適切な非言語情報を選択すればよいことが理解される。
実施の形態では、第1信号の振幅の時間平均値をとることにより頷き運動の振幅を抽出し、心的状態を評価する場合を説明したが、本発明はそれには限定されない。波形解析部22によるリズム解析には様々な可能性がある。具体的には、個人の評価としては運動リズムの振幅や振動数や波形の種類、周波数スペクトルなどが考えられる。また時間スケールも重層的に考えることが可能であり、あるリズムの包絡線から構成されるリズムも高次のリズムとみなすことが可能である。したがって波形解析部22によって、第1信号S1から、これらの情報が反映された第2信号S2a’、S2b’を生成してもよい。
たとえば複数の人間が会議、打ち合わせを行う場合を考察する。コミュニケーションを密にとる場合には寄せ集まり、ある人間が主張したい場合には中央に座る、共感すると、相互の距離は近くなり、反感すると相互の距離は離れるといった傾向がある。さらに、事務的なコミュニケーションの場合は正面から対面する状態で一定距離離れて会話することが多いが、友人など親しい関係になると側面方向に並び近接して会話することになる。
そこで、複数の被験者2の空間的な位置関係を、複数の被験者の間の心的状態の評価結果に反映させることができる。
実施の形態では、複数の被験者2の関係の評価に、同一の非言語情報から得られる信号を利用する場合を説明したが、本発明はそれには限定されない。たとえば、一方の被験者2aの心的状態を評価するに当たり、その被験者2aについては第1の非言語情報(たとえば、頷き運動)を観測し、別の被験者2bについては、第1の非言語情報とは異なる第2の非言語情報(たとえば、視線の動き)を観測し、それぞれで得られた第2信号S2a、S2bの相対的な関係にもとづいて、心的状態の関係的側面を評価してもよい。
実施例3で説明したように、複数の被験者は、通信システムを介してコミュニケーションをとってもよい。近年、ビジネスや教育の分野においても、遠隔地の人間同士が、テレビ電話システムや音声電話システム、スマートホン、タブレット端末などの通信システムを通じてコミュニケーションをとることが頻繁に行われている。評価装置100により得られるデータは、音声電話システムや、テレビ電話システムの評価に役立てることもできる。
実施の形態では、人間同士のコミュニケーションを対象として、心的状態を評価する場合を説明したが、本発明はそれには限定されず、人間と相互作用するメディアの設計・評価やテレビメディア番組の評価など多様な応用が想定される。メディアは、テレビ放送や、DVDなどのソフト、電子学習システムなどが例示される。
図15の評価装置100aでは、図2の評価装置100の被験者2bがコンピュータやテレビ、タブレットなどのマルチメディアデバイス3に置換される。そして、非言語情報測定部10bは、マルチメディアデバイス3から被験者2aに提供される情報のダイナミクス、たとえば音声信号や画像信号を監視し、それに応じた第1信号S1bを生成する。
Claims (6)
- 複数の被験者間のコミュニケーションにおける、被験者間の関係を評価する評価装置であって、
前記複数の被験者それぞれを観測し、前記複数の被験者それぞれについて、それぞれから得られる非言語情報を数値化した時系列信号である第1信号を生成する非言語情報測定部と、
前記複数の被験者それぞれについて得られた前記第1信号にもとづいて、前記複数の被験者それぞれの前記非言語情報のリズムとしての特性に関連する量である第2信号を生成する波形解析部と、
前記複数の被験者それぞれに対応する複数の第2信号の相対的な関係にもとづき、前記複数の被験者の間の関係にかかわる心的状態を示す指標である第3信号を生成する関係評価部と、
を備えることを特徴とする評価装置。 - 前記第2信号は、前記第1信号の周波数情報および/または位相情報にもとづいて生成されることを特徴とする請求項1に記載の評価装置。
- 前記複数の第2信号の相対的な関係は、(i)同期の程度、(ii)位相差、(iii)相関関係、(iv)周波数の関係、(v)位相の関係、(vi)振幅の関係、(vii)波形パターンとしての幾何学的特徴量の関係のいずれか、またはそれらの任意の組み合わせを含むことを特徴とする請求項1または2に記載の評価装置。
- 前記関係評価部は、共感、信頼感、一体感、居場所感、ライブ感、合意や同意、納得感のいずれかを評価することを特徴とする請求項1から3のいずれかに記載の評価装置。
- 前記関係評価部は、前記複数の第2信号の相対的な関係に加えて、前記複数の被験者の空間的な位置関係にもとづいて、前記第3信号を生成することを特徴とする請求項1から4のいずれかに記載の評価装置。
- 前記複数の被験者それぞれについて得られた第2信号にもとづき、前記複数の被験者それぞれについて、各被験者の心的状態を示す指標である第4信号を生成する個人評価部をさらに備えることを特徴とする請求項1から5のいずれかに記載の評価装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012274147 | 2012-12-15 | ||
JP2012274147 | 2012-12-15 | ||
PCT/JP2013/007352 WO2014091766A1 (ja) | 2012-12-15 | 2013-12-13 | 人間の心的状態の評価装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2014091766A1 JPWO2014091766A1 (ja) | 2017-01-05 |
JP6249490B2 true JP6249490B2 (ja) | 2017-12-20 |
Family
ID=50934072
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014551900A Active JP6249490B2 (ja) | 2012-12-15 | 2013-12-13 | 人間の心的状態の評価装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20150327802A1 (ja) |
EP (1) | EP2932899A4 (ja) |
JP (1) | JP6249490B2 (ja) |
KR (1) | KR20150097632A (ja) |
WO (1) | WO2014091766A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022230068A1 (ja) * | 2021-04-27 | 2022-11-03 | 株式会社I’mbesideyou | 動画像分析プログラム |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6440157B2 (ja) * | 2014-08-12 | 2018-12-19 | 国立大学法人大阪大学 | 会話評価装置、会話評価システム、及び、会話評価方法 |
JP5799351B1 (ja) * | 2014-12-09 | 2015-10-21 | 株式会社センタン | 評価装置および評価方法 |
US10368792B2 (en) * | 2015-06-02 | 2019-08-06 | The Charles Stark Draper Laboratory Inc. | Method for detecting deception and predicting interviewer accuracy in investigative interviewing using interviewer, interviewee and dyadic physiological and behavioral measurements |
JP6759545B2 (ja) * | 2015-09-15 | 2020-09-23 | ヤマハ株式会社 | 評価装置およびプログラム |
JP6306071B2 (ja) * | 2016-02-09 | 2018-04-04 | Pst株式会社 | 推定装置、推定プログラム、推定装置の作動方法および推定システム |
JP6686553B2 (ja) * | 2016-03-08 | 2020-04-22 | 富士通株式会社 | 応対品質評価プログラム、応対品質評価方法及び応対品質評価装置 |
JP6689215B2 (ja) * | 2017-01-25 | 2020-04-28 | 株式会社日立製作所 | システム及び対話情報の出力方法 |
JP6662329B2 (ja) * | 2017-03-02 | 2020-03-11 | マツダ株式会社 | 情報制御装置 |
JP6769896B2 (ja) * | 2017-03-02 | 2020-10-14 | 大学共同利用機関法人自然科学研究機構 | 環境共有レベル判定装置 |
US20210110844A1 (en) * | 2017-03-21 | 2021-04-15 | Tokyo Institute Of Technology | Communication analysis apparatus |
JP2019040525A (ja) * | 2017-08-28 | 2019-03-14 | パナソニックIpマネジメント株式会社 | 相性分析システム、相性分析装置、相性分析方法、及びプログラム |
US20190102737A1 (en) * | 2017-10-03 | 2019-04-04 | International Business Machines Corporation | Methods and systems for receiving feedback |
JP6910919B2 (ja) * | 2017-10-18 | 2021-07-28 | 株式会社日立製作所 | システム及び意思疎通を図るために行うアクションの評価方法 |
JP7139680B2 (ja) * | 2018-05-14 | 2022-09-21 | 富士通株式会社 | 活性度評価プログラム、装置、及び方法 |
CA3099520C (en) * | 2018-05-22 | 2024-04-02 | Boston Scientific Neuromodulation Corporation | Adjustment of analgesic stimulation parameters based on trust dynamic measurements |
EP3811245A4 (en) | 2018-06-19 | 2022-03-09 | Ellipsis Health, Inc. | MENTAL HEALTH ASSESSMENT SYSTEMS AND METHODS |
US20190385711A1 (en) | 2018-06-19 | 2019-12-19 | Ellipsis Health, Inc. | Systems and methods for mental health assessment |
JP7260826B2 (ja) * | 2021-02-05 | 2023-04-19 | ダイキン工業株式会社 | 学習装置および評価情報出力装置 |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004007539A (ja) * | 2002-04-19 | 2004-01-08 | Sumitomo Electric Ind Ltd | ビジュアル情報の記録/再生方法、その装置及び通信システム |
JP4704174B2 (ja) | 2005-09-30 | 2011-06-15 | 富士フイルム株式会社 | 状態識別装置、プログラムおよび方法 |
US20100004977A1 (en) * | 2006-09-05 | 2010-01-07 | Innerscope Research Llc | Method and System For Measuring User Experience For Interactive Activities |
US9514436B2 (en) * | 2006-09-05 | 2016-12-06 | The Nielsen Company (Us), Llc | Method and system for predicting audience viewing behavior |
US20080183525A1 (en) * | 2007-01-31 | 2008-07-31 | Tsuji Satomi | Business microscope system |
US9521960B2 (en) * | 2007-10-31 | 2016-12-20 | The Nielsen Company (Us), Llc | Systems and methods providing en mass collection and centralized processing of physiological responses from viewers |
JP2009129338A (ja) * | 2007-11-27 | 2009-06-11 | Sony Corp | 対人関係評価装置、対人関係評価方法、対人関係評価システム、端末装置 |
US8615479B2 (en) * | 2007-12-13 | 2013-12-24 | The Invention Science Fund I, Llc | Methods and systems for indicating behavior in a population cohort |
JP5251547B2 (ja) * | 2008-06-06 | 2013-07-31 | ソニー株式会社 | 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム |
US20090318773A1 (en) * | 2008-06-24 | 2009-12-24 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Involuntary-response-dependent consequences |
JP2010022649A (ja) | 2008-07-22 | 2010-02-04 | Nippon Telegr & Teleph Corp <Ntt> | 指標選択装置及び方法ならびにコンピュータプログラム |
JP5234379B2 (ja) * | 2009-04-03 | 2013-07-10 | 株式会社日立製作所 | コミュニケーション支援装置、コミュニケーション支援システム、及びコミュニケーション支援方法 |
JP2011008393A (ja) * | 2009-06-24 | 2011-01-13 | Nec Corp | グループ管理支援装置、グループ管理支援方法およびプログラム |
CN102237081B (zh) * | 2010-04-30 | 2013-04-24 | 国际商业机器公司 | 语音韵律评估方法与系统 |
US20130189661A1 (en) * | 2010-06-07 | 2013-07-25 | Affectiva, Inc. | Scoring humor reactions to digital media |
WO2011156272A1 (en) * | 2010-06-07 | 2011-12-15 | Affectiva,Inc. | Mental state analysis using web services |
US20120077160A1 (en) * | 2010-06-25 | 2012-03-29 | Degutis Joseph | Computer-implemented interactive behavioral training technique for the optimization of attention or remediation of disorders of attention |
JP2012079265A (ja) * | 2010-10-06 | 2012-04-19 | Nec Corp | 関係性判定装置、関係性判定システム、関係性判定方法および関係性判定プログラム |
US9099011B2 (en) * | 2011-04-29 | 2015-08-04 | Ufaceme, Inc. | Learning tool and method of recording, reviewing, and analyzing face-to-face human interaction |
US20130019187A1 (en) * | 2011-07-15 | 2013-01-17 | International Business Machines Corporation | Visualizing emotions and mood in a collaborative social networking environment |
US10176725B2 (en) * | 2011-08-29 | 2019-01-08 | Worcester Polytechnic Institute | System and method of pervasive developmental disorder interventions |
JP2013052049A (ja) | 2011-09-02 | 2013-03-21 | National Institute Of Information & Communication Technology | 対人コミュニケーションにおける同調性検出装置 |
JP5338934B2 (ja) * | 2012-03-22 | 2013-11-13 | 株式会社日立製作所 | 組織コミュニケーション可視化システム |
US9478147B2 (en) * | 2012-05-17 | 2016-10-25 | The University Of Connecticut | Methods and apparatus for interpersonal coordination analysis and training |
CA2878374C (en) * | 2012-07-11 | 2021-07-27 | Duquesne University Of The Holy Spirit | Kinetic-based tool for biometric identification, verification, validation and profiling |
US9734730B2 (en) * | 2013-01-31 | 2017-08-15 | Sri International | Multi-modal modeling of temporal interaction sequences |
JP6094131B2 (ja) * | 2012-10-05 | 2017-03-15 | 日本電気株式会社 | 教育現場改善支援システム、教育現場改善支援方法、情報処理装置、通信端末およびその制御方法と制御プログラム |
EP2906114A4 (en) * | 2012-10-11 | 2016-11-16 | Univ City New York Res Found | PREDICTION OF THE RESPONSE TO A STIMULUS |
US9443144B2 (en) * | 2013-03-15 | 2016-09-13 | Disney Enterprises, Inc. | Methods and systems for measuring group behavior |
US9361705B2 (en) * | 2013-03-15 | 2016-06-07 | Disney Enterprises, Inc. | Methods and systems for measuring group behavior |
EP2833340A1 (en) * | 2013-08-01 | 2015-02-04 | The Provost, Fellows, Foundation Scholars, and The Other Members of Board, of The College of The Holy and Undivided Trinity of Queen Elizabeth | Method and system for measuring communication skills of team members |
JP6126540B2 (ja) * | 2014-02-06 | 2017-05-10 | ヤフー株式会社 | 関係性推定装置、関係性推定方法およびプログラム |
US10446055B2 (en) * | 2014-08-13 | 2019-10-15 | Pitchvantage Llc | Public speaking trainer with 3-D simulation and real-time feedback |
US9639770B2 (en) * | 2015-03-26 | 2017-05-02 | Konica Minolta Laboratory U.S.A., Inc. | System and method for improving communication productivity |
-
2013
- 2013-12-13 JP JP2014551900A patent/JP6249490B2/ja active Active
- 2013-12-13 EP EP13861653.7A patent/EP2932899A4/en not_active Withdrawn
- 2013-12-13 US US14/652,376 patent/US20150327802A1/en not_active Abandoned
- 2013-12-13 WO PCT/JP2013/007352 patent/WO2014091766A1/ja active Application Filing
- 2013-12-13 KR KR1020157018830A patent/KR20150097632A/ko not_active Application Discontinuation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022230068A1 (ja) * | 2021-04-27 | 2022-11-03 | 株式会社I’mbesideyou | 動画像分析プログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2014091766A1 (ja) | 2017-01-05 |
KR20150097632A (ko) | 2015-08-26 |
EP2932899A1 (en) | 2015-10-21 |
EP2932899A4 (en) | 2016-08-10 |
WO2014091766A1 (ja) | 2014-06-19 |
US20150327802A1 (en) | 2015-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6249490B2 (ja) | 人間の心的状態の評価装置 | |
US11759135B2 (en) | Systems and methods for detecting blink inhibition as a marker of engagement and perceived stimulus salience | |
Grabowski et al. | Emotional expression in psychiatric conditions: New technology for clinicians | |
Bond et al. | New findings in non‐verbal lie detection | |
Griffioen et al. | Changes in behavioural synchrony during dog‐assisted therapy for children with autism spectrum disorder and children with Down syndrome | |
Lucas et al. | Towards an affective interface for assessment of psychological distress | |
Fujiwara et al. | Video-based tracking approach for nonverbal synchrony: a comparison of Motion Energy Analysis and OpenPose | |
WO2018174088A1 (ja) | コミュニケーション解析装置およびそれに使用される測定・フィードバック装置、インタラクション装置 | |
Reuzel et al. | Conversational synchronization in naturally occurring settings: A recurrence-based analysis of gaze directions and speech rhythms of staff and clients with intellectual disability | |
WO2020148920A1 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
Mehu et al. | Multimodal integration of dynamic audio–visual cues in the communication of agreement and disagreement | |
Stanley | Measuring attention using microsoft kinect | |
Whyatt et al. | The social-dance: decomposing naturalistic dyadic interaction dynamics to the'micro-level' | |
Irvin et al. | Capturing talk and proximity in the classroom: Advances in measuring features of young children's friendships | |
Samad et al. | A pilot study to identify autism related traits in spontaneous facial actions using computer vision | |
Reuzel et al. | Verbal interactional dominance and coordinative structure of speech rhythms of staff and clients with an intellectual disability. | |
DiSalvo et al. | Reading the room: Automated, momentary assessment of student engagement in the classroom: Are we there yet? | |
Dunbar et al. | Automated methods to examine nonverbal synchrony in dyads | |
Artiran et al. | Measuring social modulation of gaze in autism spectrum condition with virtual reality interviews | |
Desmet et al. | Multimodal analysis of synchronization data from patients with dementia | |
JP2019101872A (ja) | 情報処理装置、及びプログラム | |
Yamanaka et al. | Assessing the communication attitude of the elderly using prosodic information and head motions | |
Gomi et al. | Analysis of Speech Dialogue to Detect Active Conversation and Lapse in Conversation toward Development of Conversation Support Robot after Co-occurrence and Mutual Assistance Matching | |
KR101706740B1 (ko) | 인체 미동에 의한 hrc 기반 사회 관계성 온라인 측정 방법 및 시스템 | |
Nanda et al. | Internet of things-based wearable health solutions: empirical study for health startups |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6249490 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |