JP7251392B2 - 感情推定装置 - Google Patents

感情推定装置 Download PDF

Info

Publication number
JP7251392B2
JP7251392B2 JP2019142532A JP2019142532A JP7251392B2 JP 7251392 B2 JP7251392 B2 JP 7251392B2 JP 2019142532 A JP2019142532 A JP 2019142532A JP 2019142532 A JP2019142532 A JP 2019142532A JP 7251392 B2 JP7251392 B2 JP 7251392B2
Authority
JP
Japan
Prior art keywords
emotion
user
facial expression
event
emotion estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019142532A
Other languages
English (en)
Other versions
JP2021024378A (ja
Inventor
大乗 山高
史佳 中西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019142532A priority Critical patent/JP7251392B2/ja
Priority to FR2008036A priority patent/FR3099610B1/fr
Priority to US16/943,073 priority patent/US11393226B2/en
Publication of JP2021024378A publication Critical patent/JP2021024378A/ja
Application granted granted Critical
Publication of JP7251392B2 publication Critical patent/JP7251392B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/406Traffic density
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本開示は、利用者の感情を推定する感情推定装置に関する。
従来、利用者の複数種類の表情が数値化された表情スコアを用いて、利用者の感情を推定する方法が提案されている。例えば、特許文献1は、利用者の顔を撮影した画像を用いて、利用者の表情スコアを算出し、当該表情スコアに基づいて利用者の感情を推定する感情推定方法を開示する。
特開2016-149063号公報
しかしながら、利用者の感情が表情に表れ難い等の理由により、利用者の表情スコアと、利用者の感情との相関が弱くなる場合がある。特許文献1が開示する感情推定方法では、表情スコアと利用者の感情との相関関係のみに基づいて利用者の感情を推定するため、表情スコアと利用者の感情との相関が弱い場合、利用者の感情の推定精度が低くなるという問題があった。
本開示は、上記問題点を鑑みてされたものであり、利用者の感情の推定精度を高めることが可能な感情推定装置を提供することを目的とする。
上記目的を達成するための第1の感情推定装置は、利用者の複数種類の表情それぞれが数値化された表情スコアを用いて利用者の感情を推定する感情推定装置(10)であって、連続する複数のイベントの間における利用者の各表情の表情スコア及び当該表情スコアの変化に関する特徴量の少なくとも一方である指標値と、連続する複数のイベントに相関する感情との対応関係に基づいて、取得した利用者の各表情の指標値に対応する感情を、利用者の感情として推定する感情推定部(108)を備え、連続する複数のイベントと、連続する複数のイベントの間における利用者の各表情の指標値と、連続する複数のイベントに相関する感情とが対応付けられた感情推定ルール(114)を有しており、連続する複数のイベントと、連続する複数のイベントの間において感情推定部による利用者の感情の推定精度の低下させる可能性のある特定のイベントが発生していないときの利用者の各表情の指標値と、連続する複数のイベントに相関する感情とが、対応付けられており、感情推定部は、特定のイベントが発生していない場合に、感情推定ルールに基づき、取得した特定のイベントが発生していないときの利用者の各表情の指標値に対応する、利用者の各表情の指標値に対応付けられている感情を、利用者の感情として推定する。
上記目的を達成するための第2の感情推定装置は、利用者の複数種類の表情それぞれが数値化された表情スコアを用いて利用者の感情を推定する感情推定装置(10)であって、連続する複数のイベントの間における利用者の各表情の表情スコア及び当該表情スコアの変化に関する特徴量の少なくとも一方である指標値と、連続する複数のイベントに相関する感情との対応関係に基づいて、取得した利用者の各表情の指標値に対応する感情を、利用者の感情として推定する感情推定部(108)を備え、連続する複数のイベントと、連続する複数のイベントの間における利用者の各表情の指標値と、連続する複数のイベントに相関する感情とが対応付けられた感情推定ルール(114)を有しており、感情推定ルールは、連続する複数のイベントの間において感情推定部による利用者の感情の推定精度の低下させる可能性のある特定のイベントが発生していない場合に、連続する複数のイベントと、連続する複数のイベントの間における利用者の各表情の指標値と、連続する複数のイベントに相関する感情とが対応付けられた第1の感情推定ルールと、連続する複数のイベントの間に特定のイベントが発生している場合に、連続する複数のイベントと、連続する複数のイベントの間における利用者の各表情の指標値と、連続する複数のイベントに相関する感情とが対応付けられた第2の感情推定ルールであり、感情推定部は、特定のイベントが発生していない場合に、第1の感情推定ルールに基づき、取得した特定のイベントが発生していないときの利用者の各表情の指標値に対応する、利用者の各表情の指標値に対応付けられている感情を、利用者の感情として推定し、特定のイベントが発生している場合に、第2の感情推定ルールに基づき、取得した特定のイベントが発生しているときの利用者の各表情の指標値に対応する、利用者の各表情の指標値に対応付けられている感情を、利用者の感情として推定する。
上記目的を達成するための第3の感情推定装置は、利用者の複数種類の表情それぞれが数値化された表情スコアを用いて利用者の感情を推定する感情推定装置(10)であって、連続する複数のイベントの間における利用者の各表情の表情スコア及び当該表情スコアの変化に関する特徴量の少なくとも一方である指標値と、連続する複数のイベントに相関する感情との対応関係に基づいて、取得した利用者の各表情の指標値に対応する感情を、利用者の感情として推定する感情推定部(108)と、連続する複数のイベントの間における利用者の各表情の指標値と、連続する複数のイベントに相関する感情を示す値を、教師データとして用いて学習された感情推定モデル(115)と、を備え、感情推定モデルは、連続する複数のイベントの間において感情推定部による利用者の感情の推定精度の低下させる可能性のある特定のイベントが発生していない場合に、連続する複数のイベントの間における利用者の各表情の指標値と、連続する複数のイベントに相関する感情を示す値を、教師データとして用いて学習された第1の感情推定モデルと、連続する複数のイベントの間に特定のイベントが発生している場合に、連続する複数のイベントの間における利用者の各表情の指標値と、連続する複数のイベントに相関する感情を示す値を、教師データとして用いて学習された第2の感情推定モデルであり、感情推定部は、特定のイベントが発生していない場合に、取得した特定のイベントが発生していないときの利用者の各表情の指標値を、第1の感情推定モデルに入力することにより、第1の感情推定モデルから出力された感情を示す値に基づいて、利用者の感情を推定し、特定のイベントが発生している場合に、取得した特定のイベントが発生しているときの利用者の各表情の指標値を、第2の感情推定モデルに入力することにより、第2の感情推定モデルから出力された感情を示す値に基づいて、利用者の感情を推定する。
本開示の感情推定装置では、表情スコアと利用者の感情との相関関係のみに基づいて利用者の感情を推定するのではなく、連続する複数のイベントの間における利用者の各表情の指標値と、当該連続する複数のイベントに相関する感情との対応関係に基づいて、利用者の感情を推定する。これにより、表情スコアと利用者の感情との相関が弱い場合でも、利用者の感情を高精度で推定することができる。
本開示の第1の実施形態に係る感情推定システムを示す図である。 第1の実施形態に係る感情推定装置の構成を示す図である。 表情スコアの変化の一例を示す図である。 第1の実施形態に係る累積データテーブルの一例を示す図である。 第1の実施形態に係る累積データテーブルの一例を示す図である。 第1の実施形態に係る感情推定テーブルの一例を示す図である。 第1の実施形態に係る感情推定テーブルの一例を示す図である。 第1の実施形態に係る感情推定装置が実行する処理の一例を示すフローチャートである。 第1の実施形態に係る感情推定装置が実行する処理の別の例を示すフローチャートである。 第2の実施形態に係る感情推定装置が実行する処理の一例を示すフローチャートである。 第2の実施形態に係る感情推定装置が実行する処理の別の例を示すフローチャートである。 第3の実施形態に係る感情推定装置の構成を示す図である。 連続する2つのイベントと利用者の感情との相関関係を示す図である。 第3の実施形態に係る感情推定装置が実行する処理の一例を示すフローチャートである。 第3の実施形態に係る感情推定装置が実行する処理の別の例を示すフローチャートである。 第4の実施形態に係る感情推定装置が実行する処理の一例を示すフローチャートである。 第4の実施形態に係る感情推定装置が実行する処理の別の例を示すフローチャートである。
<第1の実施形態>
以下、図面を参照して、本開示の第1の実施形態について説明する。図1に示すように、第1の実施形態に係る感情推定システム1は、感情推定装置10と、センサ20と、撮影装置30と、渋滞情報取得装置40と、測距装置50と、位置情報算出装置60と、状態監視装置70と、生体情報取得装置80とを含む。
感情推定装置10は、感情推定の対象である利用者の感情を推定する装置である。感情推定装置10は、マイクロコントローラと、種々の電子回路と、通信インタフェースとを備える。
マイクロコントローラは、感情推定装置10の動作を制御する装置であり、演算装置と、揮発性記憶装置と、不揮発性記憶装置とを備える。演算装置は、種々のプログラムを実行可能なCPUやGPU等の演算装置である。演算装置は、不揮発性記憶装置に保存されたプログラムを実行することにより、本開示の感情推定方法を実行する。
通信インタフェースは、センサ20と、撮影装置30と、渋滞情報取得装置40と、測距装置50と、位置情報算出装置60と、状態監視装置70と、生体情報取得装置80との間で、種々のデータの送受信を行うインタフェースである。
センサ20は、車両に対する利用者の種々の操作を検出し、当該操作を示す信号を、車内LAN(Local Area Network)を介して送信する検出装置である。センサ20の具体例としては、車両の駆動源(すなわち、エンジン及びモータ等)の始動を検出するセンサ、アクセルペダルの操作量を検出するセンサ、ブレーキペダルの操作量を検出するセンサ、ステアリングの操作量を検出するセンサ等が挙げられる。センサ20は、利用者の操作に応じて、駆動源の始動を指示する制御信号、車両の加速及び操作量を指示する制御信号、ブレーキ及び操作量を指示する制御信号、ステアリングホイールの操作及び操作量を指示する制御信号等を、車内LANに送信する。
撮影装置30は、利用者が乗車している車両の周辺環境を撮影する装置である。撮影装置30は、車両の周辺環境を撮影して撮影画像を生成すると、当該撮影画像を感情推定装置10に提供する。
渋滞情報取得装置40は、利用者が乗車している車両の走行車線の渋滞情報を取得する装置である。渋滞情報取得装置40は、例えば、道路に設置された渋滞情報提供装置から、無線通信を介して渋滞情報を取得することができる。渋滞情報取得装置40は、渋滞情報を取得すると、当該渋滞情報を感情推定装置10に提供する。
測距装置50は、利用者が乗車している車両と、その前方車両との車間距離を測定する装置である。測距装置50は、利用者が乗車している車両に設置される。測距装置50は、例えば、赤外線又はミリ波等の探査波を放射し、その反射波を解析することにより、前方車両との車間距離を測定することができる。測距装置50は、前方車両との車間距離を測定すると、当該車間距離を示す情報を感情推定装置10に提供する。
位置情報算出装置60は、利用者が乗車している車両の位置情報を算出する装置である。位置情報算出装置60は、GNSS(Global Navigation Satellite System)の複数の測位衛星が提供する測位信号に基づいて、車両の現在位置を算出することができる。位置情報算出装置60は、当該現在位置を示す現在位置情報を感情推定装置10に提供する。
状態監視装置70は、利用者の顔を撮影すると共に、当該撮影画像を解析する装置である。状態監視装置70は、利用者が運転席に着席した状態で、利用者の顔を撮影可能な位置に設置される。状態監視装置70は、利用者を撮影して撮影画像を生成すると、当該撮影画像を感情推定装置10に提供する。
また、状態監視装置70は、撮影画像と、予め取得した利用者の撮影画像とをマッチングすることにより、利用者を特定することができる。状態監視装置70は、特定した利用者の識別情報を感情推定装置10に送信する。
さらに、状態監視装置70は、利用者が運転席に乗車していない状態の運転席の撮影画像(以下、「基準画像」とする。)と、撮影画像とを比較し、これらの画像が相違する場合に、利用者の運転席への乗車を示すイベントを感情推定装置10に送信する。
さらに、状態監視装置70は、撮影画像を解析して、利用者の瞼開度を算出することができる。状態監視装置70は、利用者の瞼開度を示す情報を感情推定装置10に送信する。
さらに、状態監視装置70は、撮影画像を解析して、利用者の口の開閉が行われたか否か判断し、利用者の口の開閉が行われた場合に、利用者の口の開閉が行われた旨を示すイベントを感情推定装置10に送信する。
生体情報取得装置80は、生体情報を取得する装置である。生体情報取得装置80の具体例として、利用者が装着可能なウェアラブルデバイス等が挙げられる。例えば、生体情報取得装置80は、利用者の心臓の拍動によって生じる血流量の変化又は血管の容積変化を示す脈波を取得し、当該脈波を示す脈波信号を感情推定装置10に提供することができる。
次に、図2を参照して、感情推定装置10の機能について説明する。感情推定装置10は、識別情報登録部100と、表情スコア算出部101と、イベント検出部102と、イベント登録部103と、イベント判定部104と、特徴量算出部105と、累積データテーブル登録部106と、感情推定テーブル更新部107と、感情推定部108と、記憶装置109とを有する。
識別情報登録部100は、利用者の識別情報を登録する機能部である。識別情報登録部100は、状態監視装置70から利用者の識別情報を受信すると、当該識別情報を記憶装置109に保存する。
表情スコア算出部101は、状態監視装置70が提供した撮影画像から利用者の表情スコアを算出し、記憶装置109内の表情スコアデータベース111に登録する機能部である。例えば、表情スコアによって表される表情として、ポール・エクマンの7種類の表情、すなわち、中立、怒り、恐怖、驚き、喜び、悲しみ、不快を採用することができる。
より詳細には、表情スコア算出部101は、利用者の顔のパーツの位置情報に基づき、顔のパーツの相対位置又は形状に関わる特徴量を算出する。この特徴量として、Haar-like特徴量、特徴点間距離、フーリエ記述子等を使用することができる。次いで、表情スコア算出部101は、算出した特徴量を表情別の表情スコア算出モデル(図示せず)に入力し、これらの表情スコア算出モデルから表情別の表情スコアを取得する。表情スコア算出モデルは、種々の機械学習アルゴリズムに基づき、多数の人の顔画像を用いて学習させることができる。
そして、表情スコア算出部101は、表情スコア算出モデルが出力した各表情の表情スコアの合計が100となるように、表情スコアを算出する。表情スコア算出部101は、このようにして算出した利用者の表情スコアと、当該表情スコアの生成時刻とを対応付けて、表情スコアデータベース111に登録する。
イベント検出部102は、利用者に関するイベントを検出する機能部である。イベントには、利用者の感情推定の精度を低下させる可能性のある特定のイベントと、当該特定のイベント以外の通常のイベントがある。特定のイベントは、例えば、利用者の眠気を示すイベント(以下、「眠気イベント」とする。)、利用者が会話中である旨を示すイベント(以下、「会話イベント」とする。)等のイベントである。
通常のイベントには、(1)利用者に起因するイベントと、(2)利用者の周辺環境に関するイベントがある。利用者に起因するイベントには、利用者が乗車している車両の操作に起因するイベント、利用者の状態に起因するイベント等が含まれる。
車両の操作に起因するイベントには、車両の駆動源の始動を示すイベント、車両の急加速を示すイベント、急ブレーキを示すイベント、急ハンドルを示すイベント等が含まれる。イベント検出部102は、センサ20が送信した制御信号を監視し、これらのイベントに関連する制御信号を検出すると、当該イベントが発生したと判断することができる。
また、車両の操作に起因するイベントには、利用者の車両と前方車両との車間距離の急激な減少を示すイベント等が含まれる。イベント検出部102は、測距装置50が提供した前方車両との車間距離の減少率が、急激な車間距離の減少を示す既定の閾値以上になった場合に、車間距離の急激な減少を示すイベントが発生したと判断することができる。
利用者の状態に起因するイベントには、心拍数の増加又は減少を示すイベント、心拍変動に基づく低周波成分の積分値であるLF積分値の増加又は減少を示すイベント、心拍変動に基づく高周波成分であるHF積分値の増加又は減少を示すイベント等が含まれる。
イベント検出部102は、生体情報取得装置80が提供した脈波信号を用いて、複数の期間の心拍数を計数し、これらの心拍数を比較する。イベント検出部102は、心拍数の増加率が、既定の閾値以上になった場合に、心拍数の増加を示すイベントが発生したと判断することができる。当該閾値は、利用者の感情の変化によって生じる心拍数の増加率とすることができる。
また、イベント検出部102は、心拍数の減少率が、既定の閾値以上になった場合に、心拍数の減少を示すイベントが発生したと判断することができる。当該閾値は、利用者の感情の変化によって生じる心拍数の減少率とすることができる。
さらに、イベント検出部102は、脈波信号を用いて、所定の期間(例えば、1分等)における心拍間隔を算出する。そして、イベント検出部102は、算出した心拍間隔に高速フーリエ変換を施し、得られた周波数データの低周波成分を及び高周波成分を積分することにより、LF積分値及びHF積分値を算出することができる。イベント検出部102は、複数の期間についてLF積分値及びHF積分値を算出し、これらのLF積分値及びHF積分値を比較することにより、LF積分値及びHF積分値の増加又は減少を示すイベントが発生したか否か判断することができる。
より詳細には、イベント検出部102は、LF積分値の増加率が、既定の閾値以上になった場合に、LF積分値の増加を示すイベントが発生したと判断することができる。当該閾値は、利用者の感情の変化によって生じるLF積分値の増加率とすることができる。
また、イベント検出部102は、LF積分値の減少率が、既定の閾値以上になった場合に、LF積分値の減少を示すイベントが発生したと判断することができる。当該閾値は、利用者の感情の変化によって生じるLF積分値の減少率とすることができる。
さらに、イベント検出部102は、HF積分値の増加率が、既定の閾値以上になった場合に、HF積分値の増加を示すイベントが発生したと判断することができる。当該閾値は、利用者の感情の変化によって生じるHF積分値の増加率とすることができる。
さらに、イベント検出部102は、HF積分値の減少率が、既定の閾値以上になった場合に、HF積分値の減少を示すイベントが発生したと判断することができる。当該閾値は、利用者の感情の変化によって生じるHF積分値の減少率とすることができる。
さらに、利用者の状態に起因するイベントには、利用者による運転席への乗車を示すイベント、眠気イベント及び会話イベント等が含まれる。
例えば、イベント検出部102は、状態監視装置70から利用者による運転席への乗車を示すイベントを受信した場合に、乗車を示すイベントが発生したと判断することができる。
また、イベント検出部102は、状態監視装置70が提供した利用者の瞼開度を示す情報を解析し、所定の期間(例えば、30秒等)の利用者の瞼開度が、既定の閾値(例えば、50%等)以下になった場合に、眠気イベントが発生したと判断することができる。
さらに、イベント検出部102は、状態監視装置70から利用者の口の開閉が行われた旨を示すイベントの受信回数を計数し、所定の期間(例えば、10秒等)における当該イベントの受信回数が、既定の閾値(例えば、10回等)以上になった場合に、会話イベントが発生したと判断することができる。
利用者の周辺環境に関するイベントには、利用者の車両の周辺の交通量の増加を示すイベント、利用者の車両の周辺の渋滞を示すイベント、他の車両による割り込みを示すイベント等が含まれる。イベント検出部102は、撮影装置30が提供した撮影画像を解析し、これらのイベントが発生したか否か判断することができる。
また、利用者の周辺環境に関するイベントには、利用者の車両が車線の合流地点又は分岐点の近くに存在する旨を示すイベント等が含まれる。イベント検出部102は、位置情報算出装置60が提供した現在位置情報と、記憶装置109に予め保存されている合流地点又は分岐点の位置情報とを解析し、当該イベントが発生したか否か判断することができる。
イベント登録部103は、イベント検出部102が検出した各種イベントを、記憶装置109内のイベントログ112に登録する機能部である。イベント登録部103は、イベントの発生時刻と、当該イベントの種類を示す情報とを対応付けて登録する。
イベント判定部104は、記憶装置109内のイベントログ112を参照し、利用者の感情推定の精度を低下させる可能性のある特定のイベントの発生の有無を判定する機能部である。例えば、利用者が眠気を感じている場合、利用者の瞼開度が低下する可能性があるため、表情スコアが正確に算出されないことがある。また、利用者が会話をしている場合、利用者の口が開口するため、表情スコアが正確に算出されないことがある。このため、眠気イベント又は会話イベントが発生している場合、表情スコアが正確に算出されず、利用者の感情推定の精度を低下させる可能性がある。
特徴量算出部105は、記憶装置109内の表情スコアデータベース111に登録されている利用者の各表情の表情スコアを用いて、当該表情スコアの特徴量を算出する機能部である。本実施形態では、特徴量算出部105は、上記7種類の表情について、表情スコアの変化量及び変化時間を、特徴量として算出することができる。なお、特徴量算出部105は、表情スコアの変化量及び変化時間に基づく変化傾向を、特徴量として算出してもよい。
図3は、先行のイベントである渋滞を示すイベントと、その直後のイベントである急加速又は急ブレーキを示すイベントとの間における利用者の表情スコアの変化を示している。この例では、渋滞を示すイベントの後、喜びを示す表情スコアが減少し、その後、不快を示す表情スコアが増加している。
変化時間は、表情スコアの変化の開始時刻と終了時刻の間の時間である。表情スコアの変化の開始時刻及び終了時刻は、表情スコアの変化傾向を示す微分値が、既定の閾値以上になった時刻とすることができる。表情スコアの変化量は、変化時間における表情スコアの最大値及び最小値の差である。
累積データテーブル登録部106は、利用者毎の各表情の表情スコアの最大値及び最小値と、各表情の表情スコアの変化量及び変化時間を、これらに関連するイベントと対応付けて、記憶装置109内の累積データテーブル113に登録する機能部である。図4及び図5は、累積データテーブル113の一例を示している。図4及び図5に示す累積データテーブルには、利用者の識別情報と、連続する2つのイベントと、これらの2つのイベントの間で取得された各表情の表情スコアの最大値及び最小値と、当該表情スコアに基づく変化量及び変化時間とが、対応付けて登録されている。なお、図4及び図5では、累積データテーブル113が個別の図面に表示されているが、これらの累積データテーブル113は、図4及び図5で1つの累積データテーブル113を構成する。
感情推定テーブル更新部107は、記憶装置109内に利用者毎に生成される感情推定テーブル114を更新する機能部である。ここで、感情推定テーブルとは、表情スコアを感情に変換するルールを表現するテーブルである。感情推定テーブルは、感情推定ルールに相当する。図6及び図7は、或る利用者の感情推定テーブル114の一例を示している。図6及び図7に示す感情推定テーブル114には、連続する2つのイベントと、これらの2つのイベントの間の利用者の各表情の表情スコアの最大値及び最小値と、当該表情スコアに基づく最大値及び最小値と、これらの2つのイベントと相関のある利用者の感情が、対応付けて登録される。なお、図6及び図7では、感情推定テーブル114が個別の図面に表示されているが、これらの感情推定テーブル114は、図6及び図7で1つの感情推定テーブル114を構成する。
感情推定テーブル114に登録される連続する2つのイベントは、通常のイベント、すなわち、利用者に起因するイベント及び利用者の周辺環境に関するイベントの少なくとも一方である。例えば、先行のイベントが渋滞を示すイベントであり、後続のイベントが、車両の急加速又は急ブレーキ、利用者の心拍数又はLF積分値の増加を示すイベントである場合、利用者の感情として「イライラ」を、これらのイベントに対応付けて登録することができる。また、先行のイベントが急ブレーキを示すイベントであり、後続のイベントが、心拍数の減少又はHF積分値の増加を示すイベントである場合、利用者の感情として「安心」を、これらのイベントに対応付けて登録することができる。このように、感情推定テーブル114に登録される利用者の感情は、上記7種類の表情が表す感情に限られず、連続する2つのイベントによって生じ得る様々な感情を採用することができる。
感情推定部108は、利用者の各表情の表情スコア及び当該表情スコアの特徴量の少なくとも一方である指標値を用いて、利用者の感情を推定する機能部である。より詳細には、感情推定部108は、表情スコアデータベース111から所定の期間における利用者の複数の表情スコアを取得し、これらの表情スコアの平均値を算出することができる。所定の期間は、利用者の感情の変化に応じて表情スコアが変化する平均的な時間以上とすることが好ましい。
次いで、特徴量算出部105が、各表情について表情スコアの特徴量を算出する。そして、感情推定部108は、各表情の表情スコアの平均値と、表情スコアの特徴量の少なくとも一方が該当する感情推定テーブル114のレコードを特定し、当該レコードに対応付けられている感情を、利用者の感情として推定することができる。
なお、感情推定部108は、複数のレコードが特定された場合、特定された各レコードに対応付けられている個別の感情を混合した感情を、利用者の感情として推定することができる。また、感情推定部108は、特定された各レコードに対応付けられている個別の感情を、利用者の感情として推定することができる。この場合、感情推定部108は、各感情の重みを提示することができる。
さらに、感情推定部108は、各表情の表情スコアの特徴量を使用せず、表情スコアを用いて利用者の感情を推定する場合、表情スコアデータベース111から、所定の期間の複数の表情スコアではなく、1つの表情スコアのみを取得して、利用者の感情を推定してもよい。
次に、図8を参照して、第1の実施形態に係る感情推定装置10が実行する処理の一例について説明する。ステップS101では、感情推定装置10のイベント検出部102が、イベントが発生したか否か判断する。イベントが発生していない場合(NO)、ステップS101の処理が再び実行される。一方、イベントが発生した場合(YES)、ステップS102に処理が分岐する。
ステップS102では、イベント登録部103が、ステップS101で検出されたイベントをイベントログ112に登録する。ステップS103では、イベント判定部104が、イベントログ112を参照し、ステップS101で検出されたイベントと、その直前のイベントの少なくとも一方が、感情推定精度を低下させる可能性のある特定のイベントであるか否か判断する。これらのイベントの少なくとも一方が特定のイベントである場合(YES)、図8の処理は終了する。一方、これらのイベントの双方が特定のイベントでない場合(NO)、ステップS104に処理が分岐する。
ステップS104では、特徴量算出部105が、ステップS101で検出されたイベントと、その直前のイベントの間における利用者の各表情の表情スコアを、表情スコアデータベース111から取得する。ステップS105では、特徴量算出部105は、取得した表情スコアを用いて、当該表情スコアの変化量及び変化時間を算出する。
ステップS106では、累積データテーブル登録部106が、ステップS101で検出されたイベントと、その直前のイベントの間における利用者の各表情の表情スコアと、ステップS105で算出された当該表情スコアの変化量及び変化時間を、累積データテーブル113に登録する。
より詳細には、累積データテーブル登録部106は、これらのイベントの間における利用者の各表情の表情スコアを表情スコアデータベース111から取得すると共に、記憶装置109から利用者の識別情報を取得する。そして、累積データテーブル登録部106は、当該利用者の識別情報と、当該表情スコアの最大値及び最小値と、当該表情スコアの変化量及び変化時間を対応付けて、累積データテーブル113に登録する。ステップS107では、感情推定テーブル更新部107が、感情推定テーブル114を更新し、図8の処理が終了する。
より詳細には、感情推定テーブル更新部107は、記憶装置109に保存されている利用者の識別情報によって特定される利用者の感情推定テーブル114を参照し、ステップS101で検出されたイベントと、その直前のイベントに関連するレコードを特定する。次いで、感情推定テーブル更新部107は、特定したレコードに登録されている各表情の表情スコアの最大値及び最小値、当該表情スコアの変化量の最大値及び最小値、変化時間の最大値及び最小値と、ステップS106で累積データテーブル113に登録された表情スコアの最大値及び最小値、当該表情スコアの変化量及び変化時間とを比較する。
そして、ステップS106で累積データテーブル113に登録された表情スコアの最大値及び最小値、当該表情スコアの変化量及び変化時間が、特定したレコードに登録されている表情スコア、変化量及び変化時間の範囲外である場合、感情推定テーブル更新部107は、範囲外となった表情スコアの最大値及び最小値、変化量及び変化時間を用いて、感情推定テーブル114の表情スコア、変化量及び変化時間の最大値及び最小値を更新する。
次に、図9を参照して、第1の実施形態に係る感情推定装置10が実行する別の処理について説明する。ステップS201では、感情推定部108が、表情スコアデータベース111から所定の期間における利用者の各表情の表情スコアを取得し、各表情の表情スコアの平均値を算出する。ステップS202では、特徴量算出部105は、表情スコアデータベース111から当該表情スコアを取得し、当該表情スコアの変化量及び変化時間を算出する。
ステップS203では、イベント判定部104が、イベントログ112を参照し、感情推定精度を低下させる可能性のある特定のイベントが、上記所定の期間に発生したか否か判定する。特定のイベントが発生した場合(YES)、図9の処理は終了する。一方、特定のイベントが発生していない場合(NO)、ステップS204に処理が分岐する。
ステップS204では、感情推定部108が、記憶装置109に保存されている利用者の識別情報によって特定される利用者の感情推定テーブル114を参照し、ステップS201で算出した各表情の表情スコアの平均値と、ステップS202で算出された各表情の表情スコアの変化量及び変化時間との少なくとも一方を用いて、利用者の感情を推定する。
(第1の実施形態の効果)
本実施形態では、感情推定テーブル114には、連続する2つのイベントと、これらのイベントの間における利用者の各表情の指標値と、これらのイベントに相関する感情とが対応付けて登録される。感情推定部108は、感情推定テーブル114を参照し、表情スコアデータベース111から取得した利用者の各表情の指標値である表情スコア及び当該表情スコアの特徴量の一方に対応する、登録された利用者の各表情の指標値を特定する。そして、感情推定部108は、特定した指標値に対応付けられている感情を、利用者の感情として推定する。すなわち、感情推定部108は、表情スコアと利用者の感情との相関関係のみに基づいて利用者の感情を推定するのではなく、連続する2つのイベントの間における利用者の各表情の指標値と、当該連続する2つのイベントに相関する感情との対応関係に基づいて、利用者の感情を推定する。
これにより、表情スコアと利用者の感情との相関が弱い場合でも、利用者の感情を高精度で推定することができる。
また、感情推定装置10は、連続する2つのイベントに相関する感情を用いて利用者の感情を推定する。ここで、1つのイベントによって引き起こされる利用者の感情は、一意に定まらないことがある。例えば、急ブレーキを示すイベントが発生した場合、その後の利用者の感情が、怒りとなる人もいれば、安心となる人もいる。そのため、1つのイベントに相関する感情を用いて利用者の感情を推定した場合、感情の推定精度が低くなる恐れがある。一方、感情推定装置10は、1つのイベントではなく、連続する2つのイベントに相関する感情を用いて利用者の感情を推定するため、感情の推定精度を高めることができる。
さらに、連続する2つのイベントは、利用者の周辺環境に関するイベント及び利用者に起因するイベントの少なくとも一方である。これらのイベントは、利用者の感情に影響を与える可能性が高く、利用者の感情との相関が強い。特に、後続のイベントが利用者に起因するイベントである場合、当該イベントと利用者の感情との相関が強くなる。感情推定装置10は、このように当該イベントとの相関が強い感情を用いて利用者の感情を推定するため、感情の推定精度を高めることができる。
さらに、感情推定テーブル114には、連続する2つの通常のイベントと、連続する2つの通常のイベントの間において特定のイベントが発生していないときの利用者の各表情の指標値と、連続する2つの通常のイベントに相関する感情とが対応付けて登録される。感情推定テーブル114には、特定のイベントが発生しているときの利用者の各表情の指標値は登録されない。感情推定部108は、特定のイベントが発生していない場合に、感情推定テーブル114を参照し、表情スコアデータベース111から取得した特定のイベントが発生していないときの利用者の各表情の指標値に対応する、登録された利用者の各表情の指標値を特定する。そして、感情推定部108は、特定した指標値に対応付けられている感情を、利用者の感情として推定する。
これにより、利用者の感情の推定精度を低下させる可能性のあるイベントが発生していない場合、当該イベントに関連する利用者の各表情の指標値が登録されていない感情推定テーブル114を用いて、利用者の感情を推定することができる。このため、利用者の感情の推定精度を高めることができる。
さらに、感情推定装置10は、利用者毎に感情推定テーブル114を備えており、利用者毎の感情推定テーブル114を用いて、利用者毎に感情を推定する。これにより、利用者毎の指標値を用いて、利用者毎に感情の推定を行うことができるため、利用者の感情の推定精度を高めることができる。
さらに、感情推定装置10は、連続する2つのイベントと相関のある感情を用いて、利用者の感情を推定する。これにより、感情推定装置10が推定する利用者の感情は、表情スコアが示す感情に限られず、これらのイベントと相関のある利用者の様々な感情とすることができる。
<第2の実施形態>
次に、本開示の第2の実施形態について、第1の実施形態との相違点を中心に説明する。第2の実施形態では、感情推定精度を低下させる可能性のある眠気イベント又は会話中イベント等の特定のイベントが発生した場合でも、感情推定装置10は、利用者の感情を推定する。
第2の実施形態では、感情推定装置10は、図4~図7に示すような通常のイベント用の累積データテーブル及び感情推定テーブルに加えて、特定のイベント用の累積データテーブル及び感情推定テーブルを有する。特定のイベント用の累積データテーブル及び感情推定テーブルの構成は、通常のイベント用の累積データテーブル及び感情推定テーブルの構成と同じである。
次に、図10を参照して、第2の実施形態に係る感情推定装置10が実行する処理の一例について説明する。ステップS301では、感情推定装置10のイベント検出部102が、イベントが発生したか否か判断する。イベントが発生していない場合(NO)、ステップS301の処理が再び実行される。一方、イベントが発生した場合(YES)、ステップS302に処理が分岐する。
ステップS302では、イベント登録部103が、ステップS301で検出されたイベントをイベントログ112に登録する。ステップS303では、イベント判定部104が、イベントログ112を参照し、ステップS301で検出されたイベントが特定のイベントであるか否か判断する。検出されたイベントが特定のイベントである場合(YES)、図10の処理は終了する。一方、検出されたイベントが特定のイベントでない場合(NO)、ステップS304に処理が分岐する。
ステップS304では、イベント判定部104は、イベントログ112を参照し、ステップS301で検出された通常のイベントと、その直前の通常のイベントの間に、特定のイベントが発生しているか否か判断する。これらの2つの通常のイベントの間に特定のイベントが発生していない場合(NO)、ステップS305に処理が分岐する。
ステップS305では、特徴量算出部105が、ステップS301で検出された通常のイベントと、その直前の通常のイベントの間における利用者の各表情の表情スコアを、表情スコアデータベース111から取得する。ステップS306では、特徴量算出部105は、取得した表情スコアを用いて、当該表情スコアの変化量及び変化時間を算出する。
ステップS307では、累積データテーブル登録部106が、ステップS301で検出された通常のイベントと、その直前の通常のイベントの間における利用者の各表情の表情スコアと、ステップS306で算出された当該表情スコアの変化量及び変化時間を、通常のイベント用の累積データテーブル113に登録する。ステップS308では、感情推定テーブル更新部107が、通常のイベント用の感情推定テーブル114を更新し、図10の処理が終了する。
一方、ステップS304において、ステップS301で検出された通常のイベントと、その直前の通常のイベントの間に特定のイベントが発生していると判断した場合(YES)、ステップS309に処理が分岐する。
ステップS309では、特徴量算出部105が、ステップS301で検出された通常のイベントと、その直前の通常のイベントの間における利用者の各表情の表情スコアを、表情スコアデータベース111から取得する。ステップS310では、特徴量算出部105は、取得した表情スコアを用いて、当該表情スコアの変化量及び変化時間を算出する。
ステップS311では、累積データテーブル登録部106が、ステップS301で検出された通常のイベントと、その直前の通常のイベントの間における利用者の各表情の表情スコアと、ステップS310で算出された当該表情スコアの変化量及び変化時間を、特定のイベント用の累積データテーブル113に登録する。ステップS312では、感情推定テーブル更新部107が、特定のイベント用の感情推定テーブル114を更新し、図10の処理が終了する。
次に、図11を参照して、第2の実施形態に係る感情推定装置10が実行する別の処理について説明する。ステップS401では、感情推定部108が、表情スコアデータベース111から所定の期間における利用者の各表情の表情スコアを取得し、各表情の表情スコアの平均値を算出する。ステップS402では、特徴量算出部105は、表情スコアデータベース111から当該表情スコアを取得し、当該表情スコアの変化量及び変化時間を算出する。
ステップS403では、イベント判定部104が、イベントログ112を参照し、上記所定の期間内に特定のイベントが発生したか否か判定する。特定のイベントが発生していない場合(NO)、ステップS404に処理が分岐する。ステップS404では、感情推定部108が、通常のイベント用の感情推定テーブル114を参照し、ステップS401で算出した各表情の表情スコアの平均値と、ステップS402で算出された各表情の表情スコアの変化量及び変化時間との少なくとも一方を用いて、利用者の感情を推定する。
一方、ステップS403において、上記所定の期間内に特定のイベントが発生したと判断した場合(YES)、ステップS405に処理が分岐する。ステップS405では、感情推定部108が、特定のイベント用の感情推定テーブル114を参照し、ステップS401で算出した各表情の表情スコアの平均値と、ステップS402で算出された各表情の表情スコアの変化量及び変化時間との少なくとも一方を用いて、利用者の感情を推定する。
(第2の実施形態の効果)
第2の実施形態では、感情推定装置10は、通常のイベント用の感情推定テーブル114と、利用者の感情の推定精度を低下させる可能性のある特定のイベント用の感情推定テーブル114を有する。
感情推定部108は、特定のイベントが発生している場合、特定のイベント用の感情推定テーブル114を参照し、表情スコアデータベース111から取得した特定のイベントが発生しているときの利用者の各表情の指標値に対応する、登録された利用者の各表情の指標値を特定する。そして、感情推定部108は、当該指標値に対応付けられている感情を、利用者の感情として推定する。すなわち、特定のイベントが発生している場合、感情推定部108は、通常のイベント用の感情推定テーブル114を用いて、利用者の感情を推定しない。
これにより、利用者の感情の推定精度を低下させる可能性のあるイベントが発生した場合、感情推定を行うことができると共に、その推定精度を高めることができる。
<第3の実施形態>
次に、本開示の第3の実施形態について、上述した実施形態との相違点を中心に説明する。第3の実施形態では、感情推定部108は、感情推定モデル115を用いて、利用者の感情を推定する。
感情推定装置10は、図12に示すように、識別情報登録部100と、表情スコア算出部101と、イベント検出部102と、イベント登録部103と、イベント判定部104と、特徴量算出部105と、感情推定部108と、記憶装置109と、機械学習部110と、感情推定モデル115とを有する。
機械学習部110は、種々の機械学習アルゴリズムを用いて、感情推定モデル115を学習させる機能部である。感情推定モデル115は、利用者の感情を推定するためのプログラムであり、種々の機械学習アルゴリズムを用いて学習することができる。感情推定モデル115は、利用者毎に用意される。
より詳細には、機械学習部110は、連続する2つのイベントの間における利用者の各表情の表情スコア及び当該表情スコアの特徴量の少なくとも一方と、連続する2つのイベントに相関する感情を示す値を、教師データとして用いて感情推定モデル115を学習させる。
教師データとして使用される、利用者の各表情の表情スコア及び当該表情スコアの特徴量と、連続する2つのイベントに相関する感情を示す値とは、相関関係を有する。例えば、図13に示すように、先行のイベントが乗車を示すイベントであり、後続のイベントがエンジン始動を示すイベントの場合、利用者の感情は、「中立」である可能性が高い。利用者の感情が「中立」である場合、利用者の各表情の表情スコア及び当該表情スコアの特徴量は、「中立」を示す値になる。
また、先行のイベントが渋滞を示すイベントであり、後続のイベントが急加速、急ブレーキ、心拍数の増加、又はLF積分値の増加を示すイベントの場合、利用者の感情は、「イライラ」である可能性が高い。利用者の感情が「イライラ」である場合、利用者の各表情の表情スコア及び当該表情スコアの特徴量は、「イライラ」を示す値になる。
さらに、先行のイベントが割り込み、又は急ブレーキを示すイベントであり、後続のイベントが急加速、心拍数の増加、又はLF積分値の増加を示すイベントの場合、利用者の感情は、「怒り」である可能性が高い。また、先行のイベントが心拍数の増加、又はLF積分値の増加を示すイベントであり、後続のイベントが急加速、又は車間距離の減少を示すイベントの場合、利用者の感情は、「怒り」である可能性が高い。利用者の感情が「怒り」である場合、利用者の各表情の表情スコア及び当該表情スコアの特徴量は、「怒り」を示す値になる。
さらに、先行のイベントが急ブレーキを示すイベントであり、後続のイベントが心拍数の減少、又はHF積分値の増加を示すイベントの場合、利用者の感情は、「安心」である可能性が高い。利用者の感情が「安心」である場合、利用者の各表情の表情スコア及び当該表情スコアの特徴量は、「安心」を示す値になる。なお、連続する2つのイベントと、これらのイベントに相関する感情は、図13に示すものに限られず、他の種々のイベントと、当該イベントに相関する感情を採用することができる。また、当該イベントに相関する感情は、上記7種類の表情が表す感情に限られず、連続する2つのイベントによって生じ得る様々な感情を採用することができる。
利用者の各表情の表情スコア及び当該表情スコアの特徴量の双方と、感情を示す値とを用いて学習された感情推定モデル115は、利用者の各表情の表情スコア及び当該表情スコアの特徴量の双方が入力されると、これらに対応する感情を示す値を出力する。感情推定部108は、取得した利用者の各表情の表情スコア及び当該表情スコアの特徴量を、当該学習済みの感情推定モデル115に入力することにより、当該感情推定モデル115から出力された感情を示す値に基づいて、利用者の感情を推定することができる。なお、感情推定モデル115から出力される感情を示す値と、利用者の感情とは一対一に対応付けられる。
また、利用者の各表情の表情スコアと、感情を示す値とを用いて学習された感情推定モデル115は、利用者の各表情の表情スコアが入力されると、当該表情スコアに対応する感情を示す値を出力する。感情推定部108は、取得した利用者の各表情の表情スコアを、当該学習済みの感情推定モデル115に入力することにより、当該感情推定モデル115から出力された感情を示す値に基づいて、利用者の感情を推定することができる。
さらに、利用者の各表情の表情スコアの特徴量と、感情を示す値とを用いて学習された感情推定モデル115は、利用者の各表情の表情スコアの特徴量が入力されると、当該表情スコアの特徴量に対応する感情を示す値を出力する。感情推定部108は、取得した利用者の各表情の表情スコアの特徴量を、当該学習済みの感情推定モデル115に入力することにより、当該感情推定モデル115から出力された感情を示す値に基づいて、利用者の感情を推定することができる。
次に、図14を参照して、第3の実施形態に係る感情推定装置10が実行する処理の一例について説明する。図14に示す処理では、利用者の各表情の表情スコア及び当該表情スコアの特徴量の双方と、感情を示す値とを用いて感情推定モデル115を学習させる。
ステップS501では、感情推定装置10のイベント検出部102が、イベントが発生したか否か判断する。イベントが発生していない場合(NO)、ステップS501の処理が再び実行される。一方、イベントが発生した場合(YES)、ステップS502に処理が分岐する。
ステップS502では、イベント登録部103が、ステップS501で検出されたイベントをイベントログ112に登録する。ステップS503では、イベント判定部104が、イベントログ112を参照し、ステップS501で検出されたイベントと、その直前のイベントの少なくとも一方が、感情推定精度を低下させる可能性のある特定のイベントであるか否か判断する。これらのイベントの少なくとも一方が特定のイベントである場合(YES)、図14の処理は終了する。一方、これらのイベントの双方が特定のイベントでない場合(NO)、ステップS504に処理が分岐する。
ステップS504では、特徴量算出部105が、ステップS501で検出されたイベントと、その直前のイベントの間における利用者の各表情の表情スコアを、表情スコアデータベース111から取得する。ステップS505では、特徴量算出部105は、取得した表情スコアを用いて、当該表情スコアの変化量及び変化時間を算出する。ステップS506では、機械学習部110が、感情推定モデル115を学習させ、図14の処理が終了する。
より詳細には、機械学習部110は、記憶装置109に保存されている利用者の識別情報を用いて利用者の感情推定モデル115を特定する。次いで、機械学習部110は、表情スコアデータベース111から、ステップS501で検出されたイベントと、その直前のイベントの間における利用者の各表情の表情スコアを取得する。そして、機械学習部110は、当該表情スコアと、ステップS505で算出された当該表情スコアの特徴量と、これらの連続する2つのイベントに対応する感情を示す値を、教師データとして用いて感情推定モデル115を学習させる。
次に、図15を参照して、第3の実施形態に係る感情推定装置10が実行する別の処理について説明する。図15に示す処理では、利用者の各表情の表情スコア及び当該表情スコアの特徴量の双方を用いて、利用者の感情を推定する。
ステップS601では、感情推定部108が、表情スコアデータベース111から所定の期間における利用者の各表情の表情スコアを取得し、各表情の表情スコアの平均値を算出する。ステップS602では、特徴量算出部105は、表情スコアデータベース111から当該表情スコアを取得し、当該表情スコアの変化量及び変化時間を算出する。
ステップS603では、イベント判定部104が、イベントログ112を参照し、感情推定精度を低下させる可能性のある特定のイベントが、上記所定の期間に発生したか否か判定する。特定のイベントが発生した場合(YES)、図15の処理は終了する。一方、特定のイベントが発生していない場合(NO)、ステップS604に処理が分岐する。ステップS604では、感情推定部108が、ステップS601で算出した各表情の表情スコアの平均値と、ステップS602で算出された各表情の表情スコアの変化量及び変化時間を用いて、利用者の感情を推定し、図15の処理が終了する。
より詳細には、感情推定部108は、記憶装置109に保存されている利用者の識別情報によって特定される利用者の感情推定モデル115に対し、ステップS601で算出した各表情の表情スコアの平均値と、ステップS602で算出された各表情の表情スコアの変化量及び変化時間とを入力する。そして、感情推定部108は、感情推定モデル115が出力した感情を示す値に基づいて、利用者の感情を推定する。すなわち、感情推定部108は、表情スコアと利用者の感情との相関関係のみに基づいて利用者の感情を推定するのではなく、連続する2つのイベントの間における利用者の各表情の指標値と、当該連続する2つのイベントに相関する感情との対応関係に基づいて、利用者の感情を推定する。
<第4の実施形態>
次に、本開示の第4の実施形態について、第3の実施形態との相違点を中心に説明する。第4の実施形態では、感情推定精度を低下させる可能性のある特定のイベントが発生した場合でも、感情推定装置10は、利用者の感情を推定する。感情推定装置10は、通常のイベント用の感情推定モデル115と、特定のイベント用の感情推定モデル115とを有する。
通常のイベント用の感情推定モデル115は、連続する2つの通常のイベントの間に特定のイベントが発生していない場合に、利用者の感情の推定に用いられる感情推定モデルである。機械学習部110は、連続する2つの通常のイベントの間における利用者の各表情の指標値である表情スコア及び当該表情スコアの特徴量と、これらのイベントと相関のある感情を示す値を用いて、通常のイベント用の感情推定モデル115を学習させる。この場合、利用者が眠気を感じているときの表情スコア及び利用者が会話をしているときの表情スコア等の感情推定精度を低下させる可能性のある表情スコアは、通常のイベント用の感情推定モデル115の学習に利用されない。
特定のイベント用の感情推定モデル115は、連続する2つの通常のイベントの間に特定のイベントが発生している場合に、利用者の感情の推定に用いられる感情推定モデルである。機械学習部110は、連続する2つの通常のイベントの間における利用者の各表情の指標値である表情スコア及び当該表情スコアの特徴量と、これらのイベントと相関のある感情を示す値を用いて、特定のイベント用の感情推定モデル115を学習させる。この場合、利用者が眠気を感じているときの表情スコア及び利用者が会話をしているときの表情スコア等の感情推定精度を低下させる可能性のある表情スコアが、特定のイベント用の感情推定モデル115の学習に利用される。
次に、図16を参照して、第4の実施形態に係る感情推定装置10が実行する処理の一例について説明する。ステップS701では、感情推定装置10のイベント検出部102が、イベントが発生したか否か判断する。イベントが発生していない場合(NO)、ステップS701の処理が再び実行される。一方、イベントが発生した場合(YES)、ステップS702に処理が分岐する。
ステップS702では、イベント登録部103が、ステップS701で検出されたイベントをイベントログ112に登録する。ステップS703では、イベント判定部104が、イベントログ112を参照し、ステップS701で検出されたイベントが特定のイベントであるか否か判断する。検出されたイベントが特定のイベントである場合(YES)、図16の処理は終了する。一方、検出されたイベントが特定のイベントでない場合(NO)、ステップS704に処理が分岐する。
ステップS704では、イベント判定部104は、イベントログ112を参照し、ステップS701で検出された通常のイベントと、その直前の通常のイベントの間に、特定のイベントが発生しているか否か判断する。これらの2つの通常のイベントの間に特定のイベントが発生していない場合(NO)、ステップS705に処理が分岐する。
ステップS705では、特徴量算出部105が、ステップS701で検出された通常のイベントと、その直前の通常のイベントの間における利用者の各表情の表情スコアを、表情スコアデータベース111から取得する。ステップS706では、特徴量算出部105は、取得した表情スコアを用いて、当該表情スコアの変化量及び変化時間を算出する。ステップS707では、機械学習部110が、通常のイベント用の感情推定モデル115を学習させ、図16の処理が終了する。
より詳細には、機械学習部110は、記憶装置109に保存されている利用者の識別情報を用いて、当該利用者の通常のイベント用の感情推定モデル115を特定する。次いで、機械学習部110は、表情スコアデータベース111から、ステップS701で検出された通常のイベントと、その直前の通常のイベントの間における利用者の各表情の表情スコアを取得する。そして、機械学習部110は、当該表情スコア及びステップS706で算出された当該表情スコアの特徴量と、これらの連続する2つのイベントに対応する感情を示す値を、教師データとして用いて、通常のイベント用の感情推定モデル115を学習させる。
一方、ステップS704において、ステップS701で検出された通常のイベントと、その直前の通常のイベントの間に特定のイベントが発生していると判断した場合(YES)、ステップS708に処理が分岐する。
ステップS708では、特徴量算出部105が、ステップS701で検出された通常のイベントと、その直前の通常のイベントの間における利用者の各表情の表情スコアを、表情スコアデータベース111から取得する。ステップS709では、特徴量算出部105は、取得した表情スコアを用いて、当該表情スコアの変化量及び変化時間を算出する。ステップS710では、機械学習部110が、特定のイベント用の感情推定モデル115を学習させ、図16の処理が終了する。
より詳細には、機械学習部110は、記憶装置109に保存されている利用者の識別情報を用いて、当該利用者の特定のイベント用の感情推定モデル115を特定する。次いで、機械学習部110は、表情スコアデータベース111から、ステップS701で検出された通常のイベントと、その直前の通常のイベントの間における利用者の各表情の表情スコアを取得する。そして、機械学習部110は、当該表情スコア及びステップS706で算出された当該表情スコアの特徴量と、これらの連続する2つのイベントに対応する感情を示す値を、教師データとして用いて、特定のイベント用の感情推定モデル115を学習させる。
次に、図17を参照して、第4の実施形態に係る感情推定装置10が実行する別の処理について説明する。ステップS801では、感情推定部108が、表情スコアデータベース111から所定の期間における利用者の各表情の表情スコアを取得し、各表情の表情スコアの平均値を算出する。ステップS802では、特徴量算出部105は、表情スコアデータベース111から当該表情スコアを取得し、当該表情スコアの変化量及び変化時間を算出する。
ステップS803では、イベント判定部104が、イベントログ112を参照し、上記所定の期間内に特定のイベントが発生したか否か判定する。特定のイベントが発生していない場合(NO)、ステップS804に処理が分岐する。ステップS804では、感情推定部108が、ステップS801で算出した各表情の表情スコアの平均値と、ステップS802で算出された各表情の表情スコアの変化量及び変化時間を用いて、利用者の感情を推定し、図17の処理が終了する。
より詳細には、感情推定部108は、記憶装置109に保存されている利用者の識別情報によって特定される利用者の通常のイベント用の感情推定モデル115に対し、ステップS801で算出した各表情の表情スコアの平均値と、ステップS802で算出された各表情の表情スコアの変化量及び変化時間とを入力する。そして、感情推定部108は、当該感情推定モデル115が出力した感情を示す値に基づいて、利用者の感情を推定する。
一方、ステップS803において、上記所定の期間内に特定のイベントが発生したと判断した場合(YES)、ステップS805に処理が分岐する。ステップS805では、感情推定部108が、ステップS801で算出した各表情の表情スコアの平均値と、ステップS802で算出された各表情の表情スコアの変化量及び変化時間を用いて、利用者の感情を推定し、図17の処理が終了する。
より詳細には、感情推定部108は、記憶装置109に保存されている利用者の識別情報によって特定される利用者の特定のイベント用の感情推定モデル115に対し、ステップS801で算出した各表情の表情スコアの平均値と、ステップS802で算出された各表情の表情スコアの変化量及び変化時間とを入力する。そして、感情推定部108は、当該感情推定モデル115が出力した感情を示す値に基づいて、利用者の感情を推定する。
<その他の実施形態>
本開示は、上述した実施形態に限定されることなく、様々に変更して実施することができる。例えば、他の実施形態では、利用者の各表情の表情スコア及び当該表情スコアの特徴量を、連続する3以上のイベントに対応付けて、累積データテーブル113及び感情推定テーブル114に登録してもよい。この場合、感情推定テーブル114には、当該連続する3以上のイベントと相関のある感情が登録される。
また、他の実施形態では、連続する3以上のイベントの間の各表情の表情スコア及び当該表情スコアの特徴量の少なくとも一方と、当該連続する3以上のイベントと相関のある感情を示す値とを、教師データとして用いて感情推定モデル115を学習させてもよい。
さらに、他の実施形態では、状態監視装置70が、撮影した利用者の顔画像から表情スコアを算出し、当該表情スコアを感情推定装置10に提供してもよい。
さらに、他の実施形態では、生体情報取得装置80は、脈波信号に加えて、又は脈波信号の代わりに、利用者の心筋細胞が発生させる活動電位を示す心電信号を取得してもよい。この場合、心電信号を取得する生体情報取得装置80の具体例として、例えば、車両のステアリングホイールに設置される電極又は利用者が装着可能なウェアラブルデバイス等が挙げられる。生体情報取得装置80は、利用者の体表面に接触した状態で利用者から心電信号を取得し、当該心電信号を感情推定装置10に送信することができる。
本開示に記載された制御部及び方法は、コンピュータプログラムに実装される1以上の特定の機能を実行するようにプログラムされたプロセッサを構成することによって製造された専用コンピュータによって実現することができる。また、本開示に記載された装置及び方法は、専用のハードウェア論理回路によって実現してもよい。さらに、本開示に記載された装置及び方法は、コンピュータプログラムを実行するプロセッサを構成することによって製造された1以上の専用コンピュータと、1以上のハードウェア論理回路との組み合わせよって実現してもよい。コンピュータプログラムは、コンピュータによって実行される命令として、コンピュータ読み取り可能な非遷移有形記録媒体に保存することができる。
10 感情推定装置、 108 感情推定部、 114 感情推定テーブル、 115 感情推定モデル

Claims (7)

  1. 利用者の複数種類の表情それぞれが数値化された表情スコアを用いて前記利用者の感情を推定する感情推定装置(10)であって、
    連続する複数のイベントの間における利用者の各表情の表情スコア及び当該表情スコアの変化に関する特徴量の少なくとも一方である指標値と、前記連続する複数のイベントに相関する感情との対応関係に基づいて、取得した前記利用者の各表情の前記指標値に対応する前記感情を、前記利用者の感情として推定する感情推定部(108)を備え
    前記連続する複数のイベントと、前記連続する複数のイベントの間における前記利用者の各表情の前記指標値と、前記連続する複数のイベントに相関する前記感情とが対応付けられた感情推定ルール(114)を有しており、
    連続する複数のイベントと、前記連続する複数のイベントの間において前記感情推定部による前記利用者の感情の推定精度の低下させる可能性のある特定のイベントが発生していないときの前記利用者の各表情の前記指標値と、前記連続する複数のイベントに相関する前記感情とが、対応付けられており、
    前記感情推定部は、
    前記特定のイベントが発生していない場合に、前記感情推定ルールに基づき、取得した前記特定のイベントが発生していないときの前記利用者の各表情の前記指標値に対応する、前記利用者の各表情の前記指標値に対応付けられている前記感情を、前記利用者の感情として推定する、感情推定装置。
  2. 利用者の複数種類の表情それぞれが数値化された表情スコアを用いて前記利用者の感情を推定する感情推定装置(10)であって、
    連続する複数のイベントの間における利用者の各表情の表情スコア及び当該表情スコアの変化に関する特徴量の少なくとも一方である指標値と、前記連続する複数のイベントに相関する感情との対応関係に基づいて、取得した前記利用者の各表情の前記指標値に対応する前記感情を、前記利用者の感情として推定する感情推定部(108)を備え
    前記連続する複数のイベントと、前記連続する複数のイベントの間における前記利用者の各表情の前記指標値と、前記連続する複数のイベントに相関する前記感情とが対応付けられた感情推定ルール(114)を有しており、
    前記感情推定ルールは、
    連続する複数のイベントの間において前記感情推定部による前記利用者の感情の推定精度の低下させる可能性のある特定のイベントが発生していない場合に、前記連続する複数のイベントと、前記連続する複数のイベントの間における前記利用者の各表情の前記指標値と、前記連続する複数のイベントに相関する前記感情とが対応付けられた第1の感情推定ルールと、
    前記連続する複数のイベントの間に前記特定のイベントが発生している場合に、前記連続する複数のイベントと、前記連続する複数のイベントの間における前記利用者の各表情の前記指標値と、前記連続する複数のイベントに相関する前記感情とが対応付けられた第2の感情推定ルールであり、
    前記感情推定部は、
    前記特定のイベントが発生していない場合に、前記第1の感情推定ルールに基づき、取得した前記特定のイベントが発生していないときの前記利用者の各表情の前記指標値に対応する、前記利用者の各表情の前記指標値に対応付けられている前記感情を、前記利用者の感情として推定し、
    前記特定のイベントが発生している場合に、前記第2の感情推定ルールに基づき、取得した前記特定のイベントが発生しているときの前記利用者の各表情の前記指標値に対応する、前記利用者の各表情の前記指標値に対応付けられている前記感情を、前記利用者の感情として推定する、感情推定装置。
  3. 前記感情推定ルールは、利用者毎にあり、
    前記感情推定部は、
    前記利用者の識別情報によって特定される前記利用者の感情推定ルールに基づき、取得した前記利用者の各表情の前記指標値に対応する、前記利用者の各表情の前記指標値に対応付けられている前記感情を、前記利用者の感情として推定する、請求項1又は2に記載の感情推定装置。
  4. 利用者の複数種類の表情それぞれが数値化された表情スコアを用いて前記利用者の感情を推定する感情推定装置(10)であって、
    連続する複数のイベントの間における利用者の各表情の表情スコア及び当該表情スコアの変化に関する特徴量の少なくとも一方である指標値と、前記連続する複数のイベントに相関する感情との対応関係に基づいて、取得した前記利用者の各表情の前記指標値に対応する前記感情を、前記利用者の感情として推定する感情推定部(108)と
    前記連続する複数のイベントの間における前記利用者の各表情の前記指標値と、前記連続する複数のイベントに相関する前記感情を示す値を、教師データとして用いて学習された感情推定モデル(115)と、を備え
    前記感情推定モデルは、
    連続する複数のイベントの間において前記感情推定部による前記利用者の感情の推定精度の低下させる可能性のある特定のイベントが発生していない場合に、前記連続する複数のイベントの間における前記利用者の各表情の前記指標値と、前記連続する複数のイベントに相関する前記感情を示す値を、前記教師データとして用いて学習された第1の感情推定モデルと、
    前記連続する複数のイベントの間に前記特定のイベントが発生している場合に、前記連続する複数のイベントの間における前記利用者の各表情の前記指標値と、前記連続する複数のイベントに相関する前記感情を示す値を、前記教師データとして用いて学習された第2の感情推定モデルであり、
    前記感情推定部は、
    前記特定のイベントが発生していない場合に、取得した前記特定のイベントが発生していないときの前記利用者の各表情の前記指標値を、前記第1の感情推定モデルに入力することにより、前記第1の感情推定モデルから出力された前記感情を示す値に基づいて、前記利用者の感情を推定し、
    前記特定のイベントが発生している場合に、取得した前記特定のイベントが発生しているときの前記利用者の各表情の前記指標値を、前記第2の感情推定モデルに入力することにより、前記第2の感情推定モデルから出力された前記感情を示す値に基づいて、前記利用者の感情を推定する、感情推定装置。
  5. 前記感情推定モデルとして、利用者毎の前記感情推定モデルを有しており、
    前記感情推定部は、
    前記利用者の識別情報によって特定される前記利用者の前記感情推定モデルに対し、取得した前記利用者の各表情の前記指標値を入力することにより、当該感情推定モデルから出力された前記感情を示す値に基づいて、前記利用者の感情を推定する、請求項に記載の感情推定装置。
  6. 前記特定のイベントは、前記利用者の眠気を示すイベント又は前記利用者が会話中である旨を示すイベントである、請求項1、2、4のいずれか1項に記載の感情推定装置。
  7. 前記連続する複数のイベントは、前記利用者の周辺環境に関するイベント及び前記利用者に起因するイベントの少なくとも一方である、請求項1、2、4のいずれか1項に記載の感情推定装置。
JP2019142532A 2019-08-01 2019-08-01 感情推定装置 Active JP7251392B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019142532A JP7251392B2 (ja) 2019-08-01 2019-08-01 感情推定装置
FR2008036A FR3099610B1 (fr) 2019-08-01 2020-07-29 Dispositif d’evaluation d’emotion
US16/943,073 US11393226B2 (en) 2019-08-01 2020-07-30 Emotion estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019142532A JP7251392B2 (ja) 2019-08-01 2019-08-01 感情推定装置

Publications (2)

Publication Number Publication Date
JP2021024378A JP2021024378A (ja) 2021-02-22
JP7251392B2 true JP7251392B2 (ja) 2023-04-04

Family

ID=74241745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019142532A Active JP7251392B2 (ja) 2019-08-01 2019-08-01 感情推定装置

Country Status (3)

Country Link
US (1) US11393226B2 (ja)
JP (1) JP7251392B2 (ja)
FR (1) FR3099610B1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022201364A1 (ja) * 2021-03-24 2022-09-29 日本電気株式会社 情報処理装置、制御方法及び記憶媒体
CN113143274B (zh) * 2021-03-31 2023-11-10 中国科学院心理研究所 基于摄像头的情绪预警方法
JP2023131690A (ja) * 2022-03-09 2023-09-22 オムロン株式会社 心理状態推定装置、心理状態推定方法およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005143896A (ja) 2003-11-17 2005-06-09 Nissan Motor Co Ltd 運転者心理状態判定装置
JP2005346471A (ja) 2004-06-03 2005-12-15 Canon Inc 情報処理方法、情報処理装置
JP2008204185A (ja) 2007-02-20 2008-09-04 Toyota Motor Corp 運転心理状態判定装置
JP2018151963A (ja) 2017-03-14 2018-09-27 オムロン株式会社 人物動向記録装置
JP2018169706A (ja) 2017-03-29 2018-11-01 マツダ株式会社 車両運転支援システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2007271741B2 (en) * 2006-07-06 2013-01-31 Biorics Nv Real-time monitoring and control of physical and arousal status of individual organisms
JP4375420B2 (ja) * 2007-03-26 2009-12-02 株式会社デンソー 眠気警報装置、及びプログラム
US8462996B2 (en) * 2008-05-19 2013-06-11 Videomining Corporation Method and system for measuring human response to visual stimulus based on changes in facial expression
JP6467965B2 (ja) * 2015-02-13 2019-02-13 オムロン株式会社 感情推定装置及び感情推定方法
JP6436030B2 (ja) * 2015-09-17 2018-12-12 トヨタ自動車株式会社 ライフログ記録システム
US10043063B1 (en) * 2017-01-31 2018-08-07 The Jury Lab LLC Systems and methods for assessing the emotional response of individuals on a panel
US20190023208A1 (en) * 2017-07-19 2019-01-24 Ford Global Technologies, Llc Brake prediction and engagement
US10745029B2 (en) * 2017-12-27 2020-08-18 The Hi-Tech Robotic Systemz Ltd Providing relevant alerts to a driver of a vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005143896A (ja) 2003-11-17 2005-06-09 Nissan Motor Co Ltd 運転者心理状態判定装置
JP2005346471A (ja) 2004-06-03 2005-12-15 Canon Inc 情報処理方法、情報処理装置
JP2008204185A (ja) 2007-02-20 2008-09-04 Toyota Motor Corp 運転心理状態判定装置
JP2018151963A (ja) 2017-03-14 2018-09-27 オムロン株式会社 人物動向記録装置
JP2018169706A (ja) 2017-03-29 2018-11-01 マツダ株式会社 車両運転支援システム

Also Published As

Publication number Publication date
US11393226B2 (en) 2022-07-19
US20210034891A1 (en) 2021-02-04
JP2021024378A (ja) 2021-02-22
FR3099610A1 (fr) 2021-02-05
FR3099610B1 (fr) 2023-06-30

Similar Documents

Publication Publication Date Title
US11027608B2 (en) Driving assistance apparatus and driving assistance method
JP7251392B2 (ja) 感情推定装置
WO2019161766A1 (en) Method for distress and road rage detection
JP5326521B2 (ja) 覚醒状態判断装置及び覚醒状態判断方法
CN112673378B (zh) 推断器生成装置、监视装置、推断器生成方法以及推断器生成程序
JP4803490B2 (ja) 運転者状態推定装置及び運転支援装置
US10877444B1 (en) System and method for biofeedback including relevance assessment
US20090234552A1 (en) Driving Action Estimating Device, Driving Support Device, Vehicle Evaluating System, Driver Model Creating Device, and Driving Action Determining Device
JP4867215B2 (ja) 生理・心理状態判定装置、生理・心理状態判定方法、リファレンスデータ生成装置、及びリファレンスデータ生成方法。
CN113491519A (zh) 基于情感-认知负荷的数字助理
WO2019208450A1 (ja) 運転支援装置、運転支援方法及びプログラム
CN110641468A (zh) 基于乘客行为控制自主车辆
JPWO2018168369A1 (ja) 機械学習装置および機械学習プログラム
EP3882097A1 (en) Techniques for separating driving emotion from media induced emotion in a driver monitoring system
Kasneci et al. Aggregating physiological and eye tracking signals to predict perception in the absence of ground truth
CN113815628A (zh) 基于用户精神状态修改媒体内容播放
JP6459856B2 (ja) 車両運転支援装置、車両運転支援方法、およびプログラム
CN113598773B (zh) 数据处理装置以及用于评估用户不适的方法
Cardoso et al. Autism Spectrum Disorder diagnosis based on trajectories of eye tracking data
JP2016146978A (ja) 眠気検知装置
Murphey et al. Driver lane change prediction using physiological measures
Murugan et al. Analysis of different measures to detect driver states: A review
JP6604266B2 (ja) 眠気検知装置
KR20240006527A (ko) 생체 신호 추출을 개선하기 위한 융합 상황 센서
Gabrielli et al. A framework to study autonomous driving user acceptance in the wild

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230306

R151 Written notification of patent or utility model registration

Ref document number: 7251392

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151