JP7264079B2 - 感情推定装置、方法、プログラムおよび車両 - Google Patents

感情推定装置、方法、プログラムおよび車両 Download PDF

Info

Publication number
JP7264079B2
JP7264079B2 JP2020017904A JP2020017904A JP7264079B2 JP 7264079 B2 JP7264079 B2 JP 7264079B2 JP 2020017904 A JP2020017904 A JP 2020017904A JP 2020017904 A JP2020017904 A JP 2020017904A JP 7264079 B2 JP7264079 B2 JP 7264079B2
Authority
JP
Japan
Prior art keywords
estimation
emotion
user
unit
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020017904A
Other languages
English (en)
Other versions
JP2021124947A (ja
Inventor
翠 市川
俊哉 佐竹
泰直 吉崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020017904A priority Critical patent/JP7264079B2/ja
Priority to CN202011345939.3A priority patent/CN113221611B/zh
Priority to US17/105,869 priority patent/US11423669B2/en
Publication of JP2021124947A publication Critical patent/JP2021124947A/ja
Application granted granted Critical
Publication of JP7264079B2 publication Critical patent/JP7264079B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Mechanical Engineering (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、ユーザーの感情を推定する装置に関する。
人物の顔や体を撮影し、顔の表情や体の姿勢や動作を抽出し、これらに基づいて感情を推定する技術が各種提案されている。例えば、特許文献1は、予め表情と感情との対応付けを学習して表情マップを作成しておき、表情マップに基づいて、人物の表情から感情を推定する技術を開示している。
特開2008-146318号公報
このような感情推定機能を、車両に搭載されるECU(Electronic Control Unit)と呼ばれる電子機器に実装し、車両に搭乗するユーザーの感情を推定し、感情に応じた各種サービスを提供することが考えられる。
一般に感情推定は処理負荷が高い。そのため、感情推定を行うECUが他のアプリケーションの処理も行う場合、感情推定の処理負荷によって、他のアプリケーションの処理が遅延したり、プロセッサが高温になり強制的に処理が中断される等の影響が発生したりするおそれがある。
本開示は、上記課題を鑑みてなされたものであり、他のアプリケーションへの影響を低減しつつ、感情推定処理を実行できる感情推定装置を提供することを目的とする。
上記課題を解決するために、本開示の一局面は、車両に搭載され、ユーザーの表情に基づいて、ユーザーの感情を推定する第1推定部と、ユーザーの動作に基づいて、ユーザーの感情を推定する第2推定部と、第1推定部が推定した感情と第2推定部が推定した感情とに基づいて、ユーザーの感情を推定する第3推定部との機能を実行可能な制御部を備え、制御部は、少なくとも制御部の処理負荷に基づいて、第1推定部、第2推定部、第3推定部の機能の少なくとも一部の実行制限が可能な、感情推定装置である。
本開示によれば、感情推定装置は、制御部の処理負荷に基づいて感情推定処理の実行制限を行うので、他のアプリケーションへの影響を低減しつつ、感情推定処理を実行できる。
一実施形態に係る感情推定装置とその周辺部の機能ブロックを示す図 一実施形態に係る感情推定装置の感情推定処理の状態遷移を示す図 一実施形態に係る感情推定装置の処理負荷低減の効果を示す図
(実施形態)
本開示技術の一実施形態に係る感情推定装置は、制御部を構成するCPUやGPUの処理負荷が高い場合や、ユーザーの表情が取得できない、または、ユーザーの動作が感情を反映していないと推定される場合等、感情推定処理が好適に実行できないと推定される場合に、感情推定処理を抑制して感情推定処理の負荷を低減する。これにより、感情推定装置が実行する他のアプリケーションの処理が遅延したり、停止したりするおそれを抑制できる。以下、本実施形態について、図面を参照しながら詳細に説明する。
<構成>
図1に、本実施形態に係る感情推定装置100の機能ブロックを示す。感情推定装置100は、第1推定部11、第2推定部12、第3推定部13、負荷取得部14を含む。これら各部の機能は、制御部10によって実行される。制御部10は、典型的にはCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、メモリ等によって構成されるコンピューターである。
第1推定部11は、ユーザーの顔を撮影した画像を周期的に取得して表情を抽出し表情に基づいてユーザーの感情を推定する顔感情推定を行う。
第2推定部12は、ユーザーの体を撮影した画像を周期的に取得して手、頭、胴等の位置や動きを抽出し、さらに、これらによって特定される動作を抽出し、動作に基づいてユーザーの感情を推定する動作感情推定を行う。
第3推定部13は、第1推定部11による顔感情推定結果と第2推定部12による動作感情推定結果とを取得し、これらに基づいて、総合的な感情推定を行う総合感情推定を行う。総合感情推定においては、顔感情と動作感情とを組み合わせることにより、顔感情推定または動作感情推定のみを行う場合に比べて、感情推定の精度を向上することができる。
第1推定部11、第2推定部12、第3推定部13がそれぞれ行う感情推定の方法は限定されず、各種アルゴリズムを適宜選択することができる。各推定部の感情推定処理の実行状態の組み合わせとして、一例として次の5つの状態がある。
第1状態は、第1推定部11、第2推定部12、第3推定部13の処理がすべて実行される状態である。この状態では第3推定部13による総合感情推定結果が、感情推定装置100による感情推定結果となる。この状態が、感情推定装置100の通常状態である。
第2状態は、第1推定部11の処理が実行され、第2推定部12、第3推定部13の処理が停止される状態である。この状態では第1推定部11による顔感情推定結果が、感情推定装置100による感情推定結果となる。
第3状態は、第2推定部12の処理が実行され、第1推定部11、第3推定部13の処理が停止される状態である。この状態では第2推定部12による動作感情推定結果が、感情推定装置100による感情推定結果となる。
第4状態は、第1推定部11、第2推定部12、第3推定部13の処理がすべて実行されるが、各処理の実行周期が上述の第1状態に比べて延長された状態である。この状態では、第1状態と同様、第3推定部13による総合感情推定結果が、感情推定装置100による感情推定結果となるが、第1状態に比べて感情推定処理の実行頻度が低下する。
第5状態は、第1推定部11、第2推定部12、第3推定部13の処理がいずれも停止される状態である。この状態では、感情推定装置100による感情推定は停止される。
第2、第3、第4、第5状態においては、処理の停止または実行頻度の低下により、第1状態に比べてCPU、GPUの処理負荷がいずれも低くなる。
負荷取得部14は、CPUおよびGPUのそれぞれの処理負荷を取得する。処理負荷の指標として、例えば使用率を用いることができるが、制御部10を構成するCPUやGPU等のプロセッサの構成、機能分担や、感情推定処理の負荷特性等に応じて、適切な指標を用いればよい。
制御部10は、後述のように負荷取得部14が取得する処理負荷等に基づいて、上述の第1~第5状態間で状態遷移を制御する。
なお、制御部10は、上述した感情推定処理以外にも、車両の各種機能を実現するため、1つ以上のアプリケーションを感情推定処理と並列的に実行することができる。
感情推定装置100は、車両に搭載され、車内ネットワークを介して、車両が備える各種機器と通信可能に接続される。各種機器には、一例として、TOF(Time-of-Flight Camera)カメラ21、IR(Infrared)カメラ22、指向性マイク23、シフト制御部24、操作受付部25、カーテシスイッチ26、着座センサ27、ナビゲーション装置28等が含まれる。
TOFカメラ21およびIRカメラ22は、被写体までの距離を測定可能な距離イメージセンサであり、通常の乗車姿勢を取っているユーザーの体や顔を撮影できるよう配置される。例えば、第1推定部11は、IRカメラ22が撮影するユーザーの顔の画像に基づいて顔感情推定処理を行う。また、例えば、第2推定部12は、TOFカメラ21が撮影するユーザーの上半身の画像に基づいて動作感情推定処理を行う。
指向性マイク23は、ユーザーの声を収音可能なマイクであり、指向特性に応じて例えばユーザーが車室内のいずれの方向に向かって話しているかを特定することができる。
シフト制御部24は、P(パーキング)、D(ドライブ)、R(リバース)等のシフトポジションの検出や制御を行う機器である。
操作受付部25は、ボタン、スイッチ、タッチパネル等を備え、ユーザーからの各種操作の受け付けを行う機器である。
カーテシスイッチ26は、車両のドアの開閉を検出するセンサである。
着座センサ27は、シートにユーザーが着座しているか否かを検出するセンサである。
ナビゲーション装置28は、地図情報およびGPSによる車両の位置情報等に基づいてユーザー等が指定する目的地までの経路や到着予定時刻を案内する装置である。
また、これらの他にも、感情推定装置100による感情推定結果を取得して処理に利用する機器が車内ネットワークに接続されている。このような機器として、例えばユーザーとの会話機能を実行するエージェント機能を備える機器が挙げられる。
<処理>
図2は、感情推定装置100の制御部10が実行する状態遷移処理の例を説明するフローチャートである。図2を参照して、上述の第1~第5状態間の状態遷移を説明する。ここでは通常状態を開始点として説明する。また、感情推定装置100は、運転席に着座したユーザーの感情推定を行うことを想定する。
(ステップS101)
制御部10は、感情推定処理の実行状態を、第1推定部11、第2推定部12、第3推定部13の処理がすべて実行される通常状態(第1状態)とする。
(ステップS102)
制御部10は、運転席にユーザーが着座しているか否かを判定する。例えば、制御部10は、着座センサ27の検出結果に基づいてこの判定を行うことができる。運転席にユーザーが着座していると判定した場合、ステップS103に進み、そうでない場合ステップS107に進む。なお、着座センサ27の検出結果に、カーテシスイッチ26による運転席ドアの開閉検出を組み合わせ、例えば、カーテシスイッチ26がドア開を検出し、この後に着座センサ27が着座を検出し、さらにこの後にカーテシスイッチ26がドア閉を検出した場合に、ユーザーが着座していると判定すれば、着座の判定をより精度よく行うことができる。
(ステップS103)
制御部10は、負荷取得部14から取得するGPUの処理負荷に基づいてGPUが高負荷であるか否かを判定する。例えば、制御部10は、GPUの処理負荷が第1の値以上であれば高負荷であると判定し、そうでなければ高負荷でないと判定することができる。GPUが高負荷であると判定した場合ステップS104に進み、そうでない場合ステップS114に進む。
(ステップS104)
制御部10は、ユーザーの表情を取得することができるか否かを判定する。例えば、制御部10は、指向性マイク23から取得するユーザーの声の方向が、運転席から後席の方向であることを検知すると、ユーザーが後席の乗員と会話をするため後席の方に顔を向けており、顔を撮影できず、表情を取得できない状態であると判定することができる。あるいは、例えば、制御部10は、シフト制御部24から取得するシフトポジションがリバース走行中であることを示す「R」であることを検知すると、ユーザーが後方確認のために顔を後方に向けており、顔を撮像できず、表情を取得できない状態であると判定することができる。また、このような顔を撮影できない状態として定められた状態がいずれも成り立たない場合、ユーザーの表情を取得できると判定することができる。ユーザーの表情を取得することができると判定した場合、ステップS110に進み、そうでない場合、ステップS105に進む。
(ステップS105)
制御部10は、感情推定処理の実行状態を、第2推定部12の処理が実行され、第1推定部11、第3推定部13の処理が停止される状態(第3状態)とする。
(ステップS106)
制御部10は、負荷取得部14から取得するGPUの処理負荷に基づいてGPUが高負荷であるか否かを判定する。例えば、制御部10は、GPUの処理負荷が第2の値以上であれば高負荷であると判定し、そうでなければ高負荷でないと判定することができる。GPUが高負荷であると判定した場合ステップS107に進み、そうでない場合ステップS109に進む。
(ステップS107)
制御部10は、感情推定処理の実行状態を、第1推定部11、第2推定部12、第3推定部13の処理がいずれも停止される状態(第5状態)とする。
(ステップS108)
制御部10は、第5状態から第1状態への復帰条件が成立したか否かを判定する。ここで、第5状態から第1状態への復帰条件とは、ユーザーが着座しており、かつ、ユーザーの表情を取得することができることである。ユーザーが着座しているか否かは、ステップS102と同様にして判定することができる。また、ユーザーの表情を取得することができるか否かは、ステップS104と同様にして判定することができる。第5状態から第1状態への復帰条件が成立した場合ステップS101に進み、そうでない場合ステップS107に進む。
(ステップS109)
制御部10は、第3状態から第1状態への復帰条件が成立したか否かを判定する。ここで、第3状態から第1状態への復帰条件とは、ユーザーの表情を取得することができ、かつ、GPUが高負荷でないことである。ユーザーの表情を取得することができるか否かは、ステップS104と同様にして判定することができる。また、負荷取得部14から取得するGPUの処理負荷が第3の値より小さければGPUが高負荷ではないと判定することができる。第3状態から第1状態への復帰条件が成立した場合ステップS101に進み、そうでない場合ステップS105に進む。
(ステップS110)
制御部10は、ユーザーが機器操作中であるか否かを判定する。例えば、制御部10は、ナビゲーション装置28あるいは操作受付部25等から、ナビゲーション装置28やインストルメントパネルに設けられたボタン等に対してユーザーが操作を行っていることを表す情報を取得すると、ユーザーが機器操作中であると判定することができる。ユーザーが機器操作中である場合、ユーザーの動作は、機器操作のために行われるものであって、ユーザーの感情を反映したものである可能性が低い。ユーザーが機器操作中であると判定した場合、ステップS112に進み、そうでない場合、ステップS111に進む。
(ステップS111)
制御部10は、負荷取得部14から取得するGPUの処理負荷に基づいてGPUが高負荷であるか否かを判定する。例えば、制御部10は、GPUの処理負荷が第4の値以上であれば高負荷であると判定し、そうでなければ高負荷でないと判定することができる。GPUが高負荷であると判定した場合ステップS112に進み、そうでない場合ステップS101に進む。
(ステップS112)
制御部10は、感情推定処理の実行状態を、第1推定部11の処理が実行され、第2推定部12、第3推定部13の処理が停止される状態(第2状態)とする。
(ステップS113)
制御部10は、第2状態から第1状態への復帰条件が成立したか否かを判定する。ここで、第2状態から第1状態への復帰条件とは、ユーザーが機器操作中ではなく、かつ、GPUが高負荷でないことである。ユーザーが機器操作中であるか否かは、ステップS110と同様にして判定することができる。また、負荷取得部14から取得するGPUの処理負荷が第5の値より小さければGPUが高負荷ではないと判定することができる。第2状態から第1状態への復帰条件が成立した場合ステップS101に進み、そうでない場合ステップS112に進む。
(ステップS114)
制御部10は、負荷取得部14から取得するCPUの処理負荷に基づいてCPUが高負荷であるか否かを判定する。例えば、制御部10は、CPUの処理負荷が第6の値以上であれば高負荷であると判定し、そうでなければ高負荷でないと判定することができる。CPUが高負荷であると判定した場合ステップS115に進み、そうでない場合ステップS104に進む。
(ステップS115)
制御部10は、感情推定処理の実行状態を、第1推定部11、第2推定部12、第3推定部13の処理がすべて実行されるが、各処理の実行周期が第1状態に比べて延長された状態である状態(第4状態)とする。
(ステップS116)
制御部10は、第4状態から第1状態への復帰条件が成立したか否かを判定する。ここで、第4状態から第1状態への復帰条件とは、GPUが高負荷でなく、かつ、CPUが高負荷でないことである。負荷取得部14から取得するGPUの処理負荷が第7の値より小さければGPUが高負荷ではないと判定することができ、負荷取得部14から取得するCPUの処理負荷が第8の値より小さければCPUが高負荷ではないと判定することができる。第4状態から第1状態への復帰条件が成立した場合ステップS101に進み、そうでない場合ステップS115に進む。
以上の状態遷移処理によって、感情推定装置100による感情推定処理の実行状態が切り替えられる。これにより、CPUやGPUの処理負荷が高い場合や、ユーザーの姿勢等によって感情推定処理が好適に実行できないと推定される場合に、感情推定処理を抑制して負荷を低減することにより、制御部10が行う他のアプリケーションの処理が遅延したり、停止したりするおそれを抑制できる。なお、負荷の判定に用いた上述の第1~第8の値は、それぞれ異なっていてもよく、同じであってもよい。
また、制御部10は、ステップS109において、第3状態から第1状態への復帰条件が成り立ち、かつ、さらに以下の追加条件が成り立つ場合に、ステップS101に進み、そうでない場合ステップS105に進むようにしてもよい。また、制御部10は、ステップS113において、第2状態から第1状態への復帰条件が成り立ち、かつ、さらに以下の追加条件が成り立つ場合に、ステップS101に進み、そうでない場合ステップS112に進むようにしてもよい。追加条件が成り立つとは、例えば、以下のいずれかが成立することである。
(1)ユーザーの音声を指向性マイク23または車両が備える他のマイクが検出した。
(2)車両が備えるオーディオ機器による音楽等の再生が行われた。
(3)着座センサ27が、後部座席に着座する乗員および助手席に着座する乗員の一方または両方を検出した。あるいは、カーテシスイッチ26が、助手席側あるいは後部のドアの開閉を検出した。
(4)ナビゲーション装置28に設定された目的地に車両が到着した。
以上の追加条件が成立する場合、ユーザーの感情に変化があるか、変化しやすい状態にある可能性が高いと考えられる。このような追加条件が成立した場合に限り、第1状態に遷移することとすれば、感情推定処理をより抑制して負荷を低減できる。
また、制御部10は、ユーザーの感情に変化がない可能性が高い場合が継続している場合は、感情推定処理の実行頻度を低下させてもよい。例えば、ナビゲーション装置28が導出する目的地への到着予想時刻が渋滞等によって更新されるたび遅くなる間は、ユーザーのいら立ちの感情が変化しない可能性が高いので、上述の状態遷移処理において、第1状態を、第4状態に置換してもよい。
図3に、本実施形態による感情推定処理の負荷低減の効果を模式的に説明する図を示す。図3に、本実施形態における感情推定処理の負荷を実線で示し、比較のため、第1推定部11、第2推定部12、第3推定部13の処理がすべて実行される状態(第1状態)を維持したと仮定した場合の負荷を点線で示す。
図3に示す期間T1~T7において、T1、T7はユーザーが乗車していない期間である。この期間においては、第1推定部11、第2推定部12、第3推定部13の処理がいずれも停止される状態(第5状態)である。
また、期間T2、T4、T6は、ユーザーが着座し、ユーザーの表情が取得でき、機器操作をしていない状態であり、制御部10の負荷が高くない期間である。この期間においては、第1推定部11、第2推定部12、第3推定部13の処理がすべて実行される状態(第1状態)である。
また、期間T3、T5は、ユーザーの表情が取得できなかったり、機器操作をしていなかったり、あるいは、制御部10の負荷が高かったりする期間である。この期間においては、第1推定部11、第2推定部12、第3推定部13の処理が部分的に制限される状態(第2~第4状態のいずれか)である。
図3に示すように、期間T1、T3、T5、T7においては、第1推定部11、第2推定部12、第3推定部13の処理がすべて実行される状態(第1状態)を維持する場合より、感情推定処理のための制御部10の負荷が抑制される。
<効果>
以上の実施形態においては、CPUやGPUの処理負荷が高い場合や、ユーザーの表情が取得できない、または、ユーザーの動作が感情を反映していないと推定される場合等、感情推定処理が好適に実行できないと推定される場合に、感情推定処理を抑制して感情推定処理の負荷を低減する。これにより、感情推定装置100が実行する他のアプリケーションの処理が遅延したり、停止したりするおそれを抑制できる。
また、実施形態においては、ユーザーが着座しているか否か、ユーザーの表情が取得できるか否か、ユーザーが機器操作中であるか否かの判定を、一般に処理負荷が高い、TOFカメラ21およびIRカメラ22のようなイメージセンサから取得する画像データに基づく画像処理によらずに行うことができる。これにより、実行状態の遷移判定を、処理負荷を抑制した状態で行うことができる。
以上、本開示技術の一実施形態を説明したが、本開示技術においては、感情推定が困難あるいは必要性がない場合に感情推定処理の負荷を低減できればよく、上述の状態遷移処理は適宜変形してよい。例えば、第1推定部、第2推定部、第3推定部の機能の実行制限の内容や条件は、実施形態に示したものに限定されない。また、例えば、上述の実施形態では、ユーザーは、運転席に着座することを想定したが、助手席等、他の席に着座するユーザーを感情推定の対象としてもよい。
本開示技術は、感情推定装置だけでなく、感情推定装置が備えるコンピューター(プロセッサ)が実行する方法、プログラムおよびプログラムを記憶したコンピューター読み取り可能な非一時的な記録媒体、感情推定装置を備える車両として捉えることができる。
本開示は、感情推定を行う装置に有用である。
10 制御部
11 第1推定部
12 第2推定部
13 第3推定部
14 負荷取得部
21 TOFカメラ
22 IRカメラ
23 指向性マイク
24 シフト制御部
25 操作受付部
26 カーテシスイッチ
27 着座センサ
28 ナビゲーション装置
100 感情推定装置

Claims (10)

  1. 車両に搭載され、
    ユーザーの表情に基づいて、ユーザーの感情を推定する第1推定部と、
    ユーザーの動作に基づいて、ユーザーの感情を推定する第2推定部と、
    前記第1推定部が推定した感情と前記第2推定部が推定した感情とに基づいて、ユーザーの感情を推定する第3推定部との機能を実行可能な制御部を備え、
    前記制御部は、少なくとも前記制御部の処理負荷に基づいて、前記第1推定部、前記第2推定部、前記第3推定部の機能の少なくとも一部の実行制限が可能な、感情推定装置。
  2. 前記実行制限は、前記第1推定部、前記第2推定部、前記第3推定部の機能のいずれかの実行の停止または実行周期の延長を含む、請求項1に記載の感情推定装置。
  3. 前記制御部は、さらに、ユーザーまたは車両の状態を判定し、判定結果に基づいて、前記実行制限を行う、請求項1または2に記載の感情推定装置。
  4. 前記制御部は、ユーザーが着座していない状態であると判定した場合、前記実行制限として、前記第1推定部、前記第2推定部、前記第3推定部の機能の全部を停止する、請求項3に記載の感情推定装置。
  5. 前記制御部は、ユーザーの表情が取得できない状態であると判定した場合、前記実行制限として前記第1推定部および前記第3推定部の機能を停止する、請求項3または4に記載の感情推定装置。
  6. 前記制御部は、ユーザーが所定の機器を操作している状態であると判定した場合、前記実行制限として、前記第2推定部および前記第3推定部の機能を停止する、請求項3~5のいずれかに記載の感情推定装置。
  7. 前記制御部は、前記実行制限を行うか否かの判定に、車両が備える1つ以上のイメージセンサから取得するいずれの情報も利用しない、請求項3~6のいずれかに記載の感情推定装置。
  8. 車両に搭載される感情推定装置のコンピューターが実行する感情推定方法であって、
    ユーザーの表情に基づいて、ユーザーの感情を推定する第1推定ステップと、
    ユーザーの動作に基づいて、ユーザーの動作を抽出し、ユーザーの感情を推定する第2推定ステップと、
    前記第1推定ステップにおいて推定した感情と前記第2推定ステップにおいて推定した感情とに基づいて、ユーザーの感情を推定する第3推定ステップと、
    少なくとも前記コンピューターの処理負荷に基づいて、前記第1推定ステップ、前記第2推定ステップ、前記第3推定ステップの少なくとも一部の実行制限を行う、実行制限ステップとを含む、感情推定方法。
  9. 車両に搭載される感情推定装置のコンピューターに実行させる感情推定プログラムであって、
    ユーザーの表情に基づいて、ユーザーの感情を推定する第1推定ステップと、
    ユーザーの動作に基づいて、ユーザーの動作を抽出し、ユーザーの感情を推定する第2推定ステップと、
    前記第1推定ステップにおいて推定した感情と前記第2推定ステップにおいて推定した感情とに基づいて、ユーザーの感情を推定する第3推定ステップと、
    少なくとも前記コンピューターの処理負荷に基づいて、前記第1推定ステップ、前記第2推定ステップ、前記第3推定ステップの少なくとも一部の実行制限を行う、実行制限ステップとを含む、感情推定プログラム。
  10. 請求項1~7のいずれかに記載の感情推定装置を備える車両。
JP2020017904A 2020-02-05 2020-02-05 感情推定装置、方法、プログラムおよび車両 Active JP7264079B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020017904A JP7264079B2 (ja) 2020-02-05 2020-02-05 感情推定装置、方法、プログラムおよび車両
CN202011345939.3A CN113221611B (zh) 2020-02-05 2020-11-26 情绪推断装置、方法、程序以及车辆
US17/105,869 US11423669B2 (en) 2020-02-05 2020-11-27 Emotion prediction device, method, program, and vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020017904A JP7264079B2 (ja) 2020-02-05 2020-02-05 感情推定装置、方法、プログラムおよび車両

Publications (2)

Publication Number Publication Date
JP2021124947A JP2021124947A (ja) 2021-08-30
JP7264079B2 true JP7264079B2 (ja) 2023-04-25

Family

ID=77062011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020017904A Active JP7264079B2 (ja) 2020-02-05 2020-02-05 感情推定装置、方法、プログラムおよび車両

Country Status (3)

Country Link
US (1) US11423669B2 (ja)
JP (1) JP7264079B2 (ja)
CN (1) CN113221611B (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010003213A (ja) 2008-06-23 2010-01-07 Denso Corp 制御装置、演算モード切換方法及びプログラム
JP2012116400A (ja) 2010-12-02 2012-06-21 Jvc Kenwood Corp コーナーポール投影装置
JP2014126922A (ja) 2012-12-25 2014-07-07 Mitsubishi Electric Corp 車載情報機器、制御装置および制御方法
JP2019101472A (ja) 2017-11-28 2019-06-24 トヨタ自動車株式会社 感情推定装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4757787B2 (ja) 2006-12-08 2011-08-24 株式会社トヨタIt開発センター 感情推定装置
CN101436098A (zh) * 2008-12-24 2009-05-20 华为技术有限公司 降低多核对称多处理系统的功耗的方法及装置
JP5494822B2 (ja) * 2010-12-01 2014-05-21 トヨタ自動車株式会社 車両の運動制御装置
US9493130B2 (en) * 2011-04-22 2016-11-15 Angel A. Penilla Methods and systems for communicating content to connected vehicle users based detected tone/mood in voice input
JP5729345B2 (ja) * 2012-04-10 2015-06-03 株式会社デンソー 感情モニタリングシステム
JPWO2014109106A1 (ja) * 2013-01-08 2017-01-19 クラリオン株式会社 通話制御装置、サーバおよびプログラム
KR101531924B1 (ko) * 2014-07-11 2015-06-26 현대자동차주식회사 블루투스 부하 제어 방법 및 장치
JP6985005B2 (ja) * 2015-10-14 2021-12-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 感情推定方法、感情推定装置、及び、プログラムを記録した記録媒体
JP2020502718A (ja) * 2016-12-19 2020-01-23 スルグリーン・エルエルシー デジタル優先度付与をもつ接続された適応型車両交通管理システム
US20200365015A1 (en) * 2016-12-19 2020-11-19 ThruGreen, LLC Connected and adaptive vehicle traffic management system with digital prioritization
CN106803423B (zh) * 2016-12-27 2020-09-04 智车优行科技(北京)有限公司 基于用户情绪状态的人机交互语音控制方法、装置及车辆
CN107145326B (zh) * 2017-03-28 2020-07-28 浙江大学 一种基于目标面部表情采集的音乐自动播放系统及方法
US10536815B2 (en) * 2017-06-08 2020-01-14 Ford Global Technologies, Llc Tracking a wireless device using a seamless handoff between a vehicle and a mobile device
US11919531B2 (en) * 2018-01-31 2024-03-05 Direct Current Capital LLC Method for customizing motion characteristics of an autonomous vehicle for a user
JP6713490B2 (ja) * 2018-02-07 2020-06-24 本田技研工業株式会社 情報提供装置及び情報提供方法
US10641228B2 (en) * 2018-04-09 2020-05-05 Ford Global Technologies, Llc Methods and systems for enabling engine start/stop function
JP7137628B2 (ja) * 2018-09-27 2022-09-14 本田技研工業株式会社 車両制御システム、及びアプリケーション実行装置
JP7191752B2 (ja) * 2019-03-27 2022-12-19 本田技研工業株式会社 車両制御システム及び車両
CN110147729A (zh) * 2019-04-16 2019-08-20 深圳壹账通智能科技有限公司 用户情绪识别方法、装置、计算机设备及存储介质
MX2019006648A (es) * 2019-06-06 2020-12-07 Affect Sense S C Sistema de monitoreo, proceso, analisis y almacenamiento de señales fisiologicas para el reconocimiento de emociones.
CN110704179A (zh) * 2019-09-09 2020-01-17 中科创达(重庆)汽车科技有限公司 一种车载系统负荷调整方法、装置、电子设备及存储介质
JP7431546B2 (ja) * 2019-09-25 2024-02-15 株式会社Subaru 車両制御装置
US11562206B2 (en) * 2019-09-30 2023-01-24 Wipro Limited System and method for providing personalized driving or navigation assistance

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010003213A (ja) 2008-06-23 2010-01-07 Denso Corp 制御装置、演算モード切換方法及びプログラム
JP2012116400A (ja) 2010-12-02 2012-06-21 Jvc Kenwood Corp コーナーポール投影装置
JP2014126922A (ja) 2012-12-25 2014-07-07 Mitsubishi Electric Corp 車載情報機器、制御装置および制御方法
JP2019101472A (ja) 2017-11-28 2019-06-24 トヨタ自動車株式会社 感情推定装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
齊藤義仰他,安全運転支援のための運転者の感情に基づくヒヤリハットマップ自動作成システムの実装と評価,マルチメディア,分散,協調とモバイル(DICOMO2015)シンポジウム論文集 情報処理学会シンポジウムシリーズ[CD-ROM],日本,一般社団法人情報処理学会,2015年07月08日,第2015巻 第1号,pp.491-498

Also Published As

Publication number Publication date
US11423669B2 (en) 2022-08-23
US20210241009A1 (en) 2021-08-05
CN113221611A (zh) 2021-08-06
JP2021124947A (ja) 2021-08-30
CN113221611B (zh) 2024-03-15

Similar Documents

Publication Publication Date Title
JP6382273B2 (ja) 施設満足度算出装置
CN107918637B (zh) 服务提供装置和服务提供方法
JP7172321B2 (ja) 運転評価装置、運転評価システム、運転評価方法、及び運転評価用コンピュータプログラム
US20200133630A1 (en) Control apparatus, agent apparatus, and computer readable storage medium
JP6657415B2 (ja) 情報提供装置、及び移動体
JP2020057139A (ja) 機器制御装置
CN112026790A (zh) 车载机器人的控制方法及装置、车辆、电子设备和介质
JP6373323B2 (ja) 移動体制御装置、及び移動体
JP7147259B2 (ja) 車載装置、車載装置の制御方法、及び予備動作推定システム
JP7264079B2 (ja) 感情推定装置、方法、プログラムおよび車両
JP2019101472A (ja) 感情推定装置
WO2020129312A1 (ja) 案内ロボット制御装置、及び、それを用いた案内システム、並びに、案内ロボット制御方法
JP4683123B2 (ja) 行動推定装置、プログラム
JP5687889B2 (ja) 車室内監視装置
JP2008120289A (ja) 服装対応サービス提供装置
JP6419134B2 (ja) 車両感情表示装置、車両感情表示方法および車両感情表示プログラム
JP6785889B2 (ja) サービス提供装置
JP2020103704A (ja) 情報処理装置及びプログラム
US11731643B2 (en) Vehicle management system
JP2016149014A (ja) 対話装置
JP2001097070A (ja) 乗物用人物認識装置
JP2020197942A (ja) 入力装置
WO2023210171A1 (ja) 音声対話装置及び音声対話方法
JP7089968B2 (ja) 個人認識装置
US20190384410A1 (en) Control device and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230327

R151 Written notification of patent or utility model registration

Ref document number: 7264079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151