JP7251392B2 - 感情推定装置 - Google Patents
感情推定装置 Download PDFInfo
- Publication number
- JP7251392B2 JP7251392B2 JP2019142532A JP2019142532A JP7251392B2 JP 7251392 B2 JP7251392 B2 JP 7251392B2 JP 2019142532 A JP2019142532 A JP 2019142532A JP 2019142532 A JP2019142532 A JP 2019142532A JP 7251392 B2 JP7251392 B2 JP 7251392B2
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- user
- facial expression
- event
- emotion estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/04—Traffic conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W40/09—Driving style or behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0872—Driver physiology
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
- B60W2520/105—Longitudinal acceleration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/22—Psychological state; Stress level or workload
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/221—Physiology, e.g. weight, heartbeat, health or special needs
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/229—Attention level, e.g. attentive to driving, reading or sleeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/30—Driving style
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/406—Traffic density
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/802—Longitudinal distance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Mathematical Physics (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
上記目的を達成するための第2の感情推定装置は、利用者の複数種類の表情それぞれが数値化された表情スコアを用いて利用者の感情を推定する感情推定装置(10)であって、連続する複数のイベントの間における利用者の各表情の表情スコア及び当該表情スコアの変化に関する特徴量の少なくとも一方である指標値と、連続する複数のイベントに相関する感情との対応関係に基づいて、取得した利用者の各表情の指標値に対応する感情を、利用者の感情として推定する感情推定部(108)を備え、連続する複数のイベントと、連続する複数のイベントの間における利用者の各表情の指標値と、連続する複数のイベントに相関する感情とが対応付けられた感情推定ルール(114)を有しており、感情推定ルールは、連続する複数のイベントの間において感情推定部による利用者の感情の推定精度の低下させる可能性のある特定のイベントが発生していない場合に、連続する複数のイベントと、連続する複数のイベントの間における利用者の各表情の指標値と、連続する複数のイベントに相関する感情とが対応付けられた第1の感情推定ルールと、連続する複数のイベントの間に特定のイベントが発生している場合に、連続する複数のイベントと、連続する複数のイベントの間における利用者の各表情の指標値と、連続する複数のイベントに相関する感情とが対応付けられた第2の感情推定ルールであり、感情推定部は、特定のイベントが発生していない場合に、第1の感情推定ルールに基づき、取得した特定のイベントが発生していないときの利用者の各表情の指標値に対応する、利用者の各表情の指標値に対応付けられている感情を、利用者の感情として推定し、特定のイベントが発生している場合に、第2の感情推定ルールに基づき、取得した特定のイベントが発生しているときの利用者の各表情の指標値に対応する、利用者の各表情の指標値に対応付けられている感情を、利用者の感情として推定する。
上記目的を達成するための第3の感情推定装置は、利用者の複数種類の表情それぞれが数値化された表情スコアを用いて利用者の感情を推定する感情推定装置(10)であって、連続する複数のイベントの間における利用者の各表情の表情スコア及び当該表情スコアの変化に関する特徴量の少なくとも一方である指標値と、連続する複数のイベントに相関する感情との対応関係に基づいて、取得した利用者の各表情の指標値に対応する感情を、利用者の感情として推定する感情推定部(108)と、連続する複数のイベントの間における利用者の各表情の指標値と、連続する複数のイベントに相関する感情を示す値を、教師データとして用いて学習された感情推定モデル(115)と、を備え、感情推定モデルは、連続する複数のイベントの間において感情推定部による利用者の感情の推定精度の低下させる可能性のある特定のイベントが発生していない場合に、連続する複数のイベントの間における利用者の各表情の指標値と、連続する複数のイベントに相関する感情を示す値を、教師データとして用いて学習された第1の感情推定モデルと、連続する複数のイベントの間に特定のイベントが発生している場合に、連続する複数のイベントの間における利用者の各表情の指標値と、連続する複数のイベントに相関する感情を示す値を、教師データとして用いて学習された第2の感情推定モデルであり、感情推定部は、特定のイベントが発生していない場合に、取得した特定のイベントが発生していないときの利用者の各表情の指標値を、第1の感情推定モデルに入力することにより、第1の感情推定モデルから出力された感情を示す値に基づいて、利用者の感情を推定し、特定のイベントが発生している場合に、取得した特定のイベントが発生しているときの利用者の各表情の指標値を、第2の感情推定モデルに入力することにより、第2の感情推定モデルから出力された感情を示す値に基づいて、利用者の感情を推定する。
以下、図面を参照して、本開示の第1の実施形態について説明する。図1に示すように、第1の実施形態に係る感情推定システム1は、感情推定装置10と、センサ20と、撮影装置30と、渋滞情報取得装置40と、測距装置50と、位置情報算出装置60と、状態監視装置70と、生体情報取得装置80とを含む。
本実施形態では、感情推定テーブル114には、連続する2つのイベントと、これらのイベントの間における利用者の各表情の指標値と、これらのイベントに相関する感情とが対応付けて登録される。感情推定部108は、感情推定テーブル114を参照し、表情スコアデータベース111から取得した利用者の各表情の指標値である表情スコア及び当該表情スコアの特徴量の一方に対応する、登録された利用者の各表情の指標値を特定する。そして、感情推定部108は、特定した指標値に対応付けられている感情を、利用者の感情として推定する。すなわち、感情推定部108は、表情スコアと利用者の感情との相関関係のみに基づいて利用者の感情を推定するのではなく、連続する2つのイベントの間における利用者の各表情の指標値と、当該連続する2つのイベントに相関する感情との対応関係に基づいて、利用者の感情を推定する。
次に、本開示の第2の実施形態について、第1の実施形態との相違点を中心に説明する。第2の実施形態では、感情推定精度を低下させる可能性のある眠気イベント又は会話中イベント等の特定のイベントが発生した場合でも、感情推定装置10は、利用者の感情を推定する。
第2の実施形態では、感情推定装置10は、通常のイベント用の感情推定テーブル114と、利用者の感情の推定精度を低下させる可能性のある特定のイベント用の感情推定テーブル114を有する。
次に、本開示の第3の実施形態について、上述した実施形態との相違点を中心に説明する。第3の実施形態では、感情推定部108は、感情推定モデル115を用いて、利用者の感情を推定する。
次に、本開示の第4の実施形態について、第3の実施形態との相違点を中心に説明する。第4の実施形態では、感情推定精度を低下させる可能性のある特定のイベントが発生した場合でも、感情推定装置10は、利用者の感情を推定する。感情推定装置10は、通常のイベント用の感情推定モデル115と、特定のイベント用の感情推定モデル115とを有する。
本開示は、上述した実施形態に限定されることなく、様々に変更して実施することができる。例えば、他の実施形態では、利用者の各表情の表情スコア及び当該表情スコアの特徴量を、連続する3以上のイベントに対応付けて、累積データテーブル113及び感情推定テーブル114に登録してもよい。この場合、感情推定テーブル114には、当該連続する3以上のイベントと相関のある感情が登録される。
Claims (7)
- 利用者の複数種類の表情それぞれが数値化された表情スコアを用いて前記利用者の感情を推定する感情推定装置(10)であって、
連続する複数のイベントの間における利用者の各表情の表情スコア及び当該表情スコアの変化に関する特徴量の少なくとも一方である指標値と、前記連続する複数のイベントに相関する感情との対応関係に基づいて、取得した前記利用者の各表情の前記指標値に対応する前記感情を、前記利用者の感情として推定する感情推定部(108)を備え、
前記連続する複数のイベントと、前記連続する複数のイベントの間における前記利用者の各表情の前記指標値と、前記連続する複数のイベントに相関する前記感情とが対応付けられた感情推定ルール(114)を有しており、
連続する複数のイベントと、前記連続する複数のイベントの間において前記感情推定部による前記利用者の感情の推定精度の低下させる可能性のある特定のイベントが発生していないときの前記利用者の各表情の前記指標値と、前記連続する複数のイベントに相関する前記感情とが、対応付けられており、
前記感情推定部は、
前記特定のイベントが発生していない場合に、前記感情推定ルールに基づき、取得した前記特定のイベントが発生していないときの前記利用者の各表情の前記指標値に対応する、前記利用者の各表情の前記指標値に対応付けられている前記感情を、前記利用者の感情として推定する、感情推定装置。 - 利用者の複数種類の表情それぞれが数値化された表情スコアを用いて前記利用者の感情を推定する感情推定装置(10)であって、
連続する複数のイベントの間における利用者の各表情の表情スコア及び当該表情スコアの変化に関する特徴量の少なくとも一方である指標値と、前記連続する複数のイベントに相関する感情との対応関係に基づいて、取得した前記利用者の各表情の前記指標値に対応する前記感情を、前記利用者の感情として推定する感情推定部(108)を備え、
前記連続する複数のイベントと、前記連続する複数のイベントの間における前記利用者の各表情の前記指標値と、前記連続する複数のイベントに相関する前記感情とが対応付けられた感情推定ルール(114)を有しており、
前記感情推定ルールは、
連続する複数のイベントの間において前記感情推定部による前記利用者の感情の推定精度の低下させる可能性のある特定のイベントが発生していない場合に、前記連続する複数のイベントと、前記連続する複数のイベントの間における前記利用者の各表情の前記指標値と、前記連続する複数のイベントに相関する前記感情とが対応付けられた第1の感情推定ルールと、
前記連続する複数のイベントの間に前記特定のイベントが発生している場合に、前記連続する複数のイベントと、前記連続する複数のイベントの間における前記利用者の各表情の前記指標値と、前記連続する複数のイベントに相関する前記感情とが対応付けられた第2の感情推定ルールであり、
前記感情推定部は、
前記特定のイベントが発生していない場合に、前記第1の感情推定ルールに基づき、取得した前記特定のイベントが発生していないときの前記利用者の各表情の前記指標値に対応する、前記利用者の各表情の前記指標値に対応付けられている前記感情を、前記利用者の感情として推定し、
前記特定のイベントが発生している場合に、前記第2の感情推定ルールに基づき、取得した前記特定のイベントが発生しているときの前記利用者の各表情の前記指標値に対応する、前記利用者の各表情の前記指標値に対応付けられている前記感情を、前記利用者の感情として推定する、感情推定装置。 - 前記感情推定ルールは、利用者毎にあり、
前記感情推定部は、
前記利用者の識別情報によって特定される前記利用者の感情推定ルールに基づき、取得した前記利用者の各表情の前記指標値に対応する、前記利用者の各表情の前記指標値に対応付けられている前記感情を、前記利用者の感情として推定する、請求項1又は2に記載の感情推定装置。 - 利用者の複数種類の表情それぞれが数値化された表情スコアを用いて前記利用者の感情を推定する感情推定装置(10)であって、
連続する複数のイベントの間における利用者の各表情の表情スコア及び当該表情スコアの変化に関する特徴量の少なくとも一方である指標値と、前記連続する複数のイベントに相関する感情との対応関係に基づいて、取得した前記利用者の各表情の前記指標値に対応する前記感情を、前記利用者の感情として推定する感情推定部(108)と、
前記連続する複数のイベントの間における前記利用者の各表情の前記指標値と、前記連続する複数のイベントに相関する前記感情を示す値を、教師データとして用いて学習された感情推定モデル(115)と、を備え、
前記感情推定モデルは、
連続する複数のイベントの間において前記感情推定部による前記利用者の感情の推定精度の低下させる可能性のある特定のイベントが発生していない場合に、前記連続する複数のイベントの間における前記利用者の各表情の前記指標値と、前記連続する複数のイベントに相関する前記感情を示す値を、前記教師データとして用いて学習された第1の感情推定モデルと、
前記連続する複数のイベントの間に前記特定のイベントが発生している場合に、前記連続する複数のイベントの間における前記利用者の各表情の前記指標値と、前記連続する複数のイベントに相関する前記感情を示す値を、前記教師データとして用いて学習された第2の感情推定モデルであり、
前記感情推定部は、
前記特定のイベントが発生していない場合に、取得した前記特定のイベントが発生していないときの前記利用者の各表情の前記指標値を、前記第1の感情推定モデルに入力することにより、前記第1の感情推定モデルから出力された前記感情を示す値に基づいて、前記利用者の感情を推定し、
前記特定のイベントが発生している場合に、取得した前記特定のイベントが発生しているときの前記利用者の各表情の前記指標値を、前記第2の感情推定モデルに入力することにより、前記第2の感情推定モデルから出力された前記感情を示す値に基づいて、前記利用者の感情を推定する、感情推定装置。 - 前記感情推定モデルとして、利用者毎の前記感情推定モデルを有しており、
前記感情推定部は、
前記利用者の識別情報によって特定される前記利用者の前記感情推定モデルに対し、取得した前記利用者の各表情の前記指標値を入力することにより、当該感情推定モデルから出力された前記感情を示す値に基づいて、前記利用者の感情を推定する、請求項4に記載の感情推定装置。 - 前記特定のイベントは、前記利用者の眠気を示すイベント又は前記利用者が会話中である旨を示すイベントである、請求項1、2、4のいずれか1項に記載の感情推定装置。
- 前記連続する複数のイベントは、前記利用者の周辺環境に関するイベント及び前記利用者に起因するイベントの少なくとも一方である、請求項1、2、4のいずれか1項に記載の感情推定装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019142532A JP7251392B2 (ja) | 2019-08-01 | 2019-08-01 | 感情推定装置 |
FR2008036A FR3099610B1 (fr) | 2019-08-01 | 2020-07-29 | Dispositif d’evaluation d’emotion |
US16/943,073 US11393226B2 (en) | 2019-08-01 | 2020-07-30 | Emotion estimation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019142532A JP7251392B2 (ja) | 2019-08-01 | 2019-08-01 | 感情推定装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021024378A JP2021024378A (ja) | 2021-02-22 |
JP7251392B2 true JP7251392B2 (ja) | 2023-04-04 |
Family
ID=74241745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019142532A Active JP7251392B2 (ja) | 2019-08-01 | 2019-08-01 | 感情推定装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11393226B2 (ja) |
JP (1) | JP7251392B2 (ja) |
FR (1) | FR3099610B1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022201364A1 (ja) * | 2021-03-24 | 2022-09-29 | 日本電気株式会社 | 情報処理装置、制御方法及び記憶媒体 |
CN113143274B (zh) * | 2021-03-31 | 2023-11-10 | 中国科学院心理研究所 | 基于摄像头的情绪预警方法 |
JP2023131690A (ja) * | 2022-03-09 | 2023-09-22 | オムロン株式会社 | 心理状態推定装置、心理状態推定方法およびプログラム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005143896A (ja) | 2003-11-17 | 2005-06-09 | Nissan Motor Co Ltd | 運転者心理状態判定装置 |
JP2005346471A (ja) | 2004-06-03 | 2005-12-15 | Canon Inc | 情報処理方法、情報処理装置 |
JP2008204185A (ja) | 2007-02-20 | 2008-09-04 | Toyota Motor Corp | 運転心理状態判定装置 |
JP2018151963A (ja) | 2017-03-14 | 2018-09-27 | オムロン株式会社 | 人物動向記録装置 |
JP2018169706A (ja) | 2017-03-29 | 2018-11-01 | マツダ株式会社 | 車両運転支援システム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2007271741B2 (en) * | 2006-07-06 | 2013-01-31 | Biorics Nv | Real-time monitoring and control of physical and arousal status of individual organisms |
JP4375420B2 (ja) * | 2007-03-26 | 2009-12-02 | 株式会社デンソー | 眠気警報装置、及びプログラム |
US8462996B2 (en) * | 2008-05-19 | 2013-06-11 | Videomining Corporation | Method and system for measuring human response to visual stimulus based on changes in facial expression |
JP6467965B2 (ja) * | 2015-02-13 | 2019-02-13 | オムロン株式会社 | 感情推定装置及び感情推定方法 |
JP6436030B2 (ja) * | 2015-09-17 | 2018-12-12 | トヨタ自動車株式会社 | ライフログ記録システム |
US10043063B1 (en) * | 2017-01-31 | 2018-08-07 | The Jury Lab LLC | Systems and methods for assessing the emotional response of individuals on a panel |
US20190023208A1 (en) * | 2017-07-19 | 2019-01-24 | Ford Global Technologies, Llc | Brake prediction and engagement |
US10745029B2 (en) * | 2017-12-27 | 2020-08-18 | The Hi-Tech Robotic Systemz Ltd | Providing relevant alerts to a driver of a vehicle |
-
2019
- 2019-08-01 JP JP2019142532A patent/JP7251392B2/ja active Active
-
2020
- 2020-07-29 FR FR2008036A patent/FR3099610B1/fr active Active
- 2020-07-30 US US16/943,073 patent/US11393226B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005143896A (ja) | 2003-11-17 | 2005-06-09 | Nissan Motor Co Ltd | 運転者心理状態判定装置 |
JP2005346471A (ja) | 2004-06-03 | 2005-12-15 | Canon Inc | 情報処理方法、情報処理装置 |
JP2008204185A (ja) | 2007-02-20 | 2008-09-04 | Toyota Motor Corp | 運転心理状態判定装置 |
JP2018151963A (ja) | 2017-03-14 | 2018-09-27 | オムロン株式会社 | 人物動向記録装置 |
JP2018169706A (ja) | 2017-03-29 | 2018-11-01 | マツダ株式会社 | 車両運転支援システム |
Also Published As
Publication number | Publication date |
---|---|
US11393226B2 (en) | 2022-07-19 |
US20210034891A1 (en) | 2021-02-04 |
JP2021024378A (ja) | 2021-02-22 |
FR3099610A1 (fr) | 2021-02-05 |
FR3099610B1 (fr) | 2023-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11027608B2 (en) | Driving assistance apparatus and driving assistance method | |
JP7251392B2 (ja) | 感情推定装置 | |
WO2019161766A1 (en) | Method for distress and road rage detection | |
JP5326521B2 (ja) | 覚醒状態判断装置及び覚醒状態判断方法 | |
CN112673378B (zh) | 推断器生成装置、监视装置、推断器生成方法以及推断器生成程序 | |
JP4803490B2 (ja) | 運転者状態推定装置及び運転支援装置 | |
US10877444B1 (en) | System and method for biofeedback including relevance assessment | |
US20090234552A1 (en) | Driving Action Estimating Device, Driving Support Device, Vehicle Evaluating System, Driver Model Creating Device, and Driving Action Determining Device | |
JP4867215B2 (ja) | 生理・心理状態判定装置、生理・心理状態判定方法、リファレンスデータ生成装置、及びリファレンスデータ生成方法。 | |
CN113491519A (zh) | 基于情感-认知负荷的数字助理 | |
WO2019208450A1 (ja) | 運転支援装置、運転支援方法及びプログラム | |
CN110641468A (zh) | 基于乘客行为控制自主车辆 | |
JPWO2018168369A1 (ja) | 機械学習装置および機械学習プログラム | |
EP3882097A1 (en) | Techniques for separating driving emotion from media induced emotion in a driver monitoring system | |
Kasneci et al. | Aggregating physiological and eye tracking signals to predict perception in the absence of ground truth | |
CN113815628A (zh) | 基于用户精神状态修改媒体内容播放 | |
JP6459856B2 (ja) | 車両運転支援装置、車両運転支援方法、およびプログラム | |
CN113598773B (zh) | 数据处理装置以及用于评估用户不适的方法 | |
Cardoso et al. | Autism Spectrum Disorder diagnosis based on trajectories of eye tracking data | |
JP2016146978A (ja) | 眠気検知装置 | |
Murphey et al. | Driver lane change prediction using physiological measures | |
Murugan et al. | Analysis of different measures to detect driver states: A review | |
JP6604266B2 (ja) | 眠気検知装置 | |
KR20240006527A (ko) | 생체 신호 추출을 개선하기 위한 융합 상황 센서 | |
Gabrielli et al. | A framework to study autonomous driving user acceptance in the wild |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221018 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230306 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7251392 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |