JP2019101472A - 感情推定装置 - Google Patents
感情推定装置 Download PDFInfo
- Publication number
- JP2019101472A JP2019101472A JP2017228056A JP2017228056A JP2019101472A JP 2019101472 A JP2019101472 A JP 2019101472A JP 2017228056 A JP2017228056 A JP 2017228056A JP 2017228056 A JP2017228056 A JP 2017228056A JP 2019101472 A JP2019101472 A JP 2019101472A
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- driver
- information
- parameter
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】車両に乗車している対象者の感情を適切に推定する。【解決手段】感情推定装置(100、200)は、車両(1)に乗車している対象者の感情を推定する感情推定装置である。当該感情推定装置は、対象者の感情に応じて変化する情報である第1情報を取得する第1取得手段(11)と、対象者の感情表現に影響を及ぼす車両に係る情報を含む第2情報を取得する第2取得手段(22)と、第1情報及び第2情報に基づいて、対象者の感情を推定する推定手段(21)と、を備える。【選択図】図1
Description
本発明は、感情推定装置に関し、特に、車両に乗車している対象者の感情を推定する感情推定装置の技術分野に関する。
この種の装置として、例えば、被験者の表情から感情を推定した感情推定結果、被験者の生体情報から感情を推定した感情推定結果、及び、被験者の音声から感情を推定した感情推定結果のうち少なくとも2つの感情推定結果を、ユーザが入力した重み付け係数に従って組み合わせて調整感情推定結果を出力する装置が提案されている(特許文献1参照)。テキスト入力情報及び状況情報を含む特徴データを用いて学習データを生成して推論モデルを構築し、該構築された推論モデルと特徴データとからユーザの心理状態を判断する装置が提案されている(特許文献2参照)。
車両の車室内カメラにより運転者及び同乗者の挙動を検出し、運転者の挙動の変化量及び同乗者の挙動の変化量を比較して運転者の感情を推定する装置が提案されている(特許文献3参照)。生体センサにより車両の運転者又は同乗者の生体情報を取得して、該取得された生体情報を用いて運転者又は同乗者の感情を推定する装置が提案されている(特許文献4参照)。車両の複数の乗員各々について複数種類の生体情報を検出して該複数の乗員各々の感情を推定する装置が提案されている(特許文献5参照)。
車両に乗車している対象者は、例えば該対象者と同乗者との関係性等に応じて、感情表現を抑制する可能性がある。上述の背景技術では、対象者が感情表現を抑制する可能性については考慮されていないという技術的問題点がある。
本発明は、上記問題点に鑑みてなされたものであり、対象者の感情を適切に推定することができる感情推定装置を提供することを課題とする。
本発明の一態様に係る感情推定装置は、車両に乗車している対象者の感情を推定する感情推定装置であって、前記対象者の感情に応じて変化する情報である第1情報を取得する第1取得手段と、前記対象者の感情表現に影響を及ぼす前記車両に係る情報を含む第2情報を取得する第2取得手段と、前記第1情報及び前記第2情報に基づいて、前記対象者の感情を推定する推定手段と、を備えるというものである。
感情推定装置に係る実施形態について図1を参照して説明する。図1は、実施形態に係る感情推定装置の構成を示すブロック図である。尚、本実施形態では、感情推定の対象者の一例として「運転者」を挙げる。
図1において、感情推定装置100は、車両1に搭載されている。感情推定装置100は、カメラ11、マイク12、ナビゲーション装置13、通信部14、デプスセンサ15、生体センサ16、感情判別器21及び24、状況判定部22、感情閾値設定器23、結合部25並びに感情判別部26を備えて構成されている。
カメラ11は、車両1の車室内を撮像する。マイク12は、車両1の車室内の音を集音する。通信部14は、例えばインターネット等のネットワークを介して、該ネットワーク上に存在するサーバ装置(図示せず)と通信可能に構成されている。デプスセンサ15は、カメラ11により画像が撮像される範囲内、且つ、デプスセンサ15のセンサ範囲内に存在する物体(特に人間)のデプスセンサ15からの距離を検出する。生体センサ16は、運転者の生体情報(例えば脈拍数、体温等)を測定する。
状況判定部22は、カメラ11により撮像された画像に基づいて、車両1の乗車人数を求める。状況判定部22は、車両1に運転者しか乗車していない場合、運転者の感情は顔表情に出づらいと判定する。状況判定部22は、車両1に運転者の他に同乗者がいる場合、運転者の感情は顔表情に出やすいと判定する。状況判定部22は、乗車人数に基づく判定結果をパラメータaの値で示す。具体的には、運転者の感情は顔表情に出づらいと判定された場合、パラメータaの値は“−2”となり、運転者の感情は顔表情に出やすいと判定された場合、パラメータaの値は“+2”となる。尚、判定できなかった場合、パラメータaの値は“0”となる。
状況判定部22は、ナビゲーション装置13に目的地が設定されている場合、目的地に係る情報を取得する。「目的地に係る情報」には、例えば、目的地の名称、種別(例えばレジャー施設、職場等)、位置(緯度、経度)、等が含まれる。状況判定部22は、設定されている目的地が運転者にとって望ましい場合、快方向の感情が出やすいと判定する。状況判定部22は、設定されている目的地が運転者にとって望ましくない場合、不快方向の感情が出やすいと判定する。状況判定部22は、目的地に基づく判定結果をパラメータbの値で示す。具体的には、快方向の感情が出やすいと判定された場合、パラメータbの値は“+1”となり、不快方向の感情が出やすいと判定された場合、パラメータbの値は“−1”となる。尚、目的地が設定されていない又は判定できなかった場合、パラメータbの値は“0”となる。
状況判定部22は、マイク12の出力信号に基づいて、語気の程度を判定する。「語気の程度」は、例えば音声の強弱や表現の丁寧さ等に基づいて判定される。状況判定部22は、語気の程度が、例えば普段よりおとなしい場合、運転者の感情が顔表情に出づらいと判定する。状況判定部22は、語気の程度が、例えば普段より荒々しい場合、運転者の感情が顔表情に出やすいと判定する。状況判定部22は、語気の程度に基づく判定結果をパラメータcの値で示す。具体的には、運転者の感情は顔表情に出づらいと判定された場合、パラメータcの値は“−1”となり、運転者の感情は顔表情に出やすいと判定された場合、パラメータcの値は“+1”となる。尚、判定できなかった場合、パラメータcの値は“0”となる。
上記サーバ装置に運転者のスケジュールや、人間関係を示すデータ(例えばアドレス帳)等を含む個人データベースが格納されている場合、状況判定部22は、通信部14を介して、運転者の個人データベースにアクセスする。
状況判定部22は、個人データベースの内容と、マイク12の出力信号により示される音声と、に基づいて、車両1に乗車している人物間の人間関係を推定する。状況判定部22は、推定された人間関係が、例えば「家族、友人」である場合、運転者の感情が顔表情に出やすいと判定する。状況判定部22は、推定された人間関係が、例えば「上司、部下」である場合、運転者の感情が顔表情に出づらいと判定する。状況判定部22は、人間関係に基づく判定結果をパラメータdの値で示す。具体的には、運転者の感情は顔表情に出やすいと判定された場合、パラメータdの値は“+1”となり、運転者の感情は顔表情に出づらいと判定された場合、パラメータdの値は“−1”となる。尚、同乗者がいない場合又は判定できなかった場合、パラメータdの値は“0”となる。
上記サーバ装置に運転者の個人データベースが格納されている場合、状況判定部22は、通信部14を介して、運転者の個人データベースからスケジュールを取得する。状況判定部22は、設定されているスケジュールが運転者にとって望ましい内容である場合、快方向の感情が出やすいと判定する。状況判定部22は、設定されているスケジュールが運転者にとって望ましくない内容である場合、不快方向の感情が出やすいと判定する。状況判定部22は、スケジュールに基づく判定結果をパラメータeの値で示す。具体的には、
快方向の感情が出やすいと判定された場合、パラメータeの値は“+1”となり、不快方向の感情が出やすいと判定された場合、パラメータeの値は“−1”となる。尚、スケジュールが設定されていない又は判定できなかった場合、パラメータeの値は“0”となる。
快方向の感情が出やすいと判定された場合、パラメータeの値は“+1”となり、不快方向の感情が出やすいと判定された場合、パラメータeの値は“−1”となる。尚、スケジュールが設定されていない又は判定できなかった場合、パラメータeの値は“0”となる。
状況判定部22は、パラメータa、b、c、d及びe各々の値を感情閾値設定器23に送信する。感情閾値設定器23は、パラメータa、c及びd各々の値を加算してパラメータαの値を求める(即ち、“α=a+c+d”である)。また、感情閾値設定器23は、パラメータb及びe各々の値を加算してパラメータβの値を求める(即ち、“β=b+e”である)。
感情閾値設定器23は、パラメータαの値に基づいて、感情判別器21における感情判別処理(後述)で用いられるロジックを選択する。ここで、当該感情推定装置100には、ロジックA、B、C、D及びEの5つのロジックが用意されている。ロジックAは、ほとんど表情に感情が出ない母集団をベースとして機械学習により構築されたロジックである。ロジックBは、あまり表情に感情が出ない母集団をベースとして機械学習により構築されたロジックである。ロジックCは、感情が表情に出る人からほとんど出ない人まで幅広い人の母集団をベースとして機械学習により構築されたロジックである。ロジックDは、表情に感情が出やすい母集団をベースとして機械学習により構築されたロジックである。ロジックEは、表示に感情が強く出る母集団をベースとして機械学習により構築されたロジックである。
感情閾値設定器23は、パラメータαの値が“−4”又は“−3”の場合、ロジックAを選択する。感情閾値設定器23は、パラメータαの値が“−2”又は“−1”の場合、ロジックBを選択する。感情閾値設定器23は、パラメータαの値が“0”の場合、ロジックCを選択する。感情閾値設定器23は、パラメータαの値が“+1”又は“+2”の場合、ロジックDを選択する。感情閾値設定器23は、パラメータαの値が“+3”又は“+4”の場合、ロジックEを選択する。
感情閾値設定器23は、選択されたロジックと、パラメータα及びβ各々の値とを感情判別器21に送信する。感情判別器21は、カメラ11により撮像された画像から運転者の顔画像を抽出する。そして、感情判別器21は、抽出された顔画像と、感情閾値設定器23により選択されたロジックと、に基づいて運転者の感情を判別する感情判別処理を行う。具体的には例えば、感情判別器21は、抽出された顔画像から表情の特徴量(例えば目の縦幅、口の縦幅、口の横幅、眉の位置等)を検出する。感情判別器21は、該検出された表情の特徴量及び上記選択されたロジックを用いて、運転者の感情を判別する。
感情判別器21は、更に、パラメータβの値に基づいて、判別された運転者の感情を補正する。具体的には、感情判別器21は、パラメータβの値が“−3”の場合、判別された運転者の感情を不快側へ2段階シフト(補正)する。感情判別器21は、パラメータβの値が“−2”又は“−1”の場合、判別された運転者の感情を不快側へ1段階シフトする。感情判別器21は、パラメータβの値が“0”の場合、判別された運転者の感情を補正しない。感情判別器21は、パラメータβの値が“+1”又は“+2”の場合、判別された運転者の感情を快側へ1段階シフトする。感情判別器21は、パラメータβの値が“+3”の場合、判別された運転者の感情を快側へ2段階シフトする。
感情判別器21は、補正後の運転者の感情と、パラメータαの値とを結合部25に送信する。
感情判別器24は、マイク12の出力信号により示される音声に基づいて、運転者の感情を判別する。感情判別器24は、デプスセンサ15の出力信号により示される距離情報から運転者の動作を推定し、該推定された動作に基づいて運転者の感情を判別する。尚、デプスセンサ15の出力信号により示される距離情報から運転者の動作を推定する方法については、既存の各種態様を適用可能であるので、その詳細についての説明は省略する。感情判定部24は、生体センサ16の出力信号により示される運転者の生体情報に基づいて、運転者の感情を判別する。感情判別器24は、音声に基づいて判別された運転者の感情、動作に基づいて判別された運転者の感情及び生体情報に基づいて判別された運転者の感情を、結合部25に送信する。
結合部25は、感情判別器21からの補正後の運転者の感情(即ち、顔表情に基づいて判別された運転者の感情)と、感情判別器24からの音声に基づいて判別された運転者の感情、動作に基づいて判別された運転者の感情及び生体情報に基づいて判別された運転者の感情と、を結合する。具体的には、結合部25は、パラメータαの値に基づいて、顔表情に基づいて判別された運転者の感情の寄与度を増減した上で、音声に基づいて判別された運転者の感情、動作に基づいて判別された運転者の感情及び生体情報に基づいて判別された運転者の感情と結合する。
顔表情に基づいて判別された運転者の感情の寄与度は、パラメータαの値が“−4”又は“−3”の場合、15%減少され、パラメータαの値が“−2”又は“−1”の場合、10%減少され、パラメータαの値が“0”の場合変化せず、パラメータαの値が“+1”又は“+2”の場合、5%増加され、パラメータαの値が“+3”又は“+4”の場合、10%増加される。
顔表情に基づいて判別された運転者の感情、音声に基づいて判別された運転者の感情、動作に基づいて判別された運転者の感情及び生体情報に基づいて判別された運転者の感情各々の元の寄与度が25%であるとする。パラメータαの値が“−4”の場合、顔表情に基づいて判別された運転者の感情の寄与度は10%に減少する一方、音声に基づいて判別された運転者の感情、動作に基づいて判別された運転者の感情及び生体情報に基づいて判別された運転者の感情各々の寄与度は30%に増加する。
感情判定部26は、結合部25における結合結果に基づいて、運転者の感情を判別(推定)する。
(技術的効果)
例えば顔の表情は、運転者の感情に応じて変化する。ただし、運転者の感情表現は、運転者が置かれている状況によって変化する。言い換えれば、運転者が置かれている状況は、運転者の感情表現に影響を及ぼす。
例えば顔の表情は、運転者の感情に応じて変化する。ただし、運転者の感情表現は、運転者が置かれている状況によって変化する。言い換えれば、運転者が置かれている状況は、運転者の感情表現に影響を及ぼす。
当該感情推定装置100では、状況判定部22により、例えば乗車人数、目的地、スケジュール等の、運転者が置かれている状況を直接的又は間接的に示す情報に基づいて、感情判別器21における感情判別処理に用いられるロジックが選択される。そして、感情判別器21は、該選択されたロジックと運転者の顔画像とを用いて、運転者の感情を判別する。このため、当該感情推定装置100によれば、単に顔表情に基づいて対象者の感情が推定される場合に比べて、対象者(本実施形態では、運転者)の感情を適切に推定することができる。
<第1変形例>
感情推定装置に係る実施形態の第1変形例について図2を参照して説明する。図2は、実施形態の第1変形例に係る感情推定装置の構成を示すブロック図である。図2において、感情推定装置200は、状況判定部22、感情閾値設定器23、感情判別部26及び感情判別器27を備えて構成されている。
感情推定装置に係る実施形態の第1変形例について図2を参照して説明する。図2は、実施形態の第1変形例に係る感情推定装置の構成を示すブロック図である。図2において、感情推定装置200は、状況判定部22、感情閾値設定器23、感情判別部26及び感情判別器27を備えて構成されている。
感情判別器27は、カメラ11により撮像された画像から運転者の顔画像を抽出して、該抽出された顔画像(即ち、顔表情)に基づいて、運転者の感情を判別する。感情判別器27は、マイク12の出力信号により示される音声に基づいて、運転者の感情を判別する。感情判別器27は、デプスセンサ15の出力信号により示される距離情報から運転者の動作を推定し、該推定された動作に基づいて、運転者の感情を判別する。感情判定部27は、生体センサ16の出力信号により示される運転者の生体情報に基づいて、運転者の感情を判別する。
そして、感情判定部27は、顔表情に基づいて判別された運転者の感情、音声に基づいて判別された運転者の感情、動作に基づいて判別された運転者の感情及び生体情報に基づいて判別された運転者の感情を結合して、感情判別部26に送信する。
<第2変形例>
感情判別器21は、音声に基づいて判別された運転者の感情、動作に基づいて判別された運転者の感情及び生体情報に基づいて判別された運転者の感情のうち一つを求めるように構成されてよい。そして、感情判別器24は、音声に基づいて判別された運転者の感情、動作に基づいて判別された運転者の感情及び生体情報に基づいて判別された運転者の感情のうち感情判別器21により求められない感情と、顔表情に基づいて判別された運転者の感情とを求めるように構成されてよい。
感情判別器21は、音声に基づいて判別された運転者の感情、動作に基づいて判別された運転者の感情及び生体情報に基づいて判別された運転者の感情のうち一つを求めるように構成されてよい。そして、感情判別器24は、音声に基づいて判別された運転者の感情、動作に基づいて判別された運転者の感情及び生体情報に基づいて判別された運転者の感情のうち感情判別器21により求められない感情と、顔表情に基づいて判別された運転者の感情とを求めるように構成されてよい。
<その他変形例>
(1)上述した実施形態では、感情判別器24により、音声に基づいて判別された運転者の感情、動作に基づいて判別された運転者の感情及び生体情報に基づいて判別された運転者の感情が求められるが、音声に基づいて判別された運転者の感情、動作に基づいて判別された運転者の感情及び生体情報に基づいて判別された運転者の感情のうちいずれか一つ又は二つが求められる構成であってもよい。
(1)上述した実施形態では、感情判別器24により、音声に基づいて判別された運転者の感情、動作に基づいて判別された運転者の感情及び生体情報に基づいて判別された運転者の感情が求められるが、音声に基づいて判別された運転者の感情、動作に基づいて判別された運転者の感情及び生体情報に基づいて判別された運転者の感情のうちいずれか一つ又は二つが求められる構成であってもよい。
(2)状況判定部22による乗車人数に基づく判定では、乗車人数(即ち、同乗者の有無)に加えて、着座位置の関係性が考慮されてもよい。
(3)状況判定部22は、車両1が置かれている状況(例えば渋滞の有無、駐車車両や歩行者の程度、道幅、天候等)も考慮してよい。
以上に説明した実施形態及び変形例から導き出される発明の各種態様を以下に説明する。
発明の一態様に係る感情推定装置は、車両に乗車している対象者の感情を推定する感情推定装置であって、前記対象者の感情に応じて変化する情報である第1情報を取得する第1取得手段と、前記対象者の感情表現に影響を及ぼす前記車両に係る情報を含む第2情報を取得する第2取得手段と、前記第1情報及び前記第2情報に基づいて、前記対象者の感情を推定する推定手段と、を備えるというものである。上述の実施形態においては、「カメラ11」が「第1取得手段」の一例に相当し、「状況判定部22」が「第2取得手段」の一例に相当し、「感情判別器21」が「推定手段」の一例に相当する。
当該感情推定装置では、対象者の感情に応じて変化する情報に加えて、対象者の感情表現に影響を及ぼす車両に係る情報に基づいて、対象者の感情が推定される。従って、当該感情推定装置によれば、対象者の感情を適切に推定することができる。
「対象者の感情に応じて変化する情報」は、例えば顔表情、声やしゃべりかた、動作や所作、心拍数等、対象者の感情と密接に関連する該対象者の身体的な変化を示す情報を意味する。「対象者の感情表現に影響を及ぼす車両に係る情報」は、例えば同乗者の有無、対象者と同乗者との関係性、目的地等、対象者が感情を出しやすい車両の状況、或いは、対象者が感情を出しにくい車両の状況と関連性のある情報を意味する。
本発明は、上述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う感情推定装置もまた本発明の技術的範囲に含まれるものである。
1…車両、11…カメラ、12…マイク、13…ナビゲーション装置、14…通信部、15…デプスセンサ、16…生体センサ、21、24、27…感情判別器、22…状況判定器、23…感情閾値設定器、25…結合部、26…感情判別部、100、200…感情推定装置
Claims (1)
- 車両に乗車している対象者の感情を推定する感情推定装置であって、
前記対象者の感情に応じて変化する情報である第1情報を取得する第1取得手段と、
前記対象者の感情表現に影響を及ぼす前記車両に係る情報を含む第2情報を取得する第2取得手段と、
前記第1情報及び前記第2情報に基づいて、前記対象者の感情を推定する推定手段と、
を備えることを特徴とする感情推定装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017228056A JP2019101472A (ja) | 2017-11-28 | 2017-11-28 | 感情推定装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017228056A JP2019101472A (ja) | 2017-11-28 | 2017-11-28 | 感情推定装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019101472A true JP2019101472A (ja) | 2019-06-24 |
Family
ID=66973595
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017228056A Pending JP2019101472A (ja) | 2017-11-28 | 2017-11-28 | 感情推定装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019101472A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020103704A (ja) * | 2018-12-28 | 2020-07-09 | 本田技研工業株式会社 | 情報処理装置及びプログラム |
KR102243432B1 (ko) * | 2019-11-20 | 2021-04-21 | 한국산업기술대학교산학협력단 | 운전자의 표정 정보에 기반한 차량 제어 방법 및 시스템 |
JP2021124947A (ja) * | 2020-02-05 | 2021-08-30 | トヨタ自動車株式会社 | 感情推定装置、方法、プログラムおよび車両 |
JP2022003497A (ja) * | 2020-06-23 | 2022-01-11 | トヨタ自動車株式会社 | 感情推定装置、感情推定方法及びプログラム |
-
2017
- 2017-11-28 JP JP2017228056A patent/JP2019101472A/ja active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020103704A (ja) * | 2018-12-28 | 2020-07-09 | 本田技研工業株式会社 | 情報処理装置及びプログラム |
JP7068156B2 (ja) | 2018-12-28 | 2022-05-16 | 本田技研工業株式会社 | 情報処理装置及びプログラム |
KR102243432B1 (ko) * | 2019-11-20 | 2021-04-21 | 한국산업기술대학교산학협력단 | 운전자의 표정 정보에 기반한 차량 제어 방법 및 시스템 |
JP2021124947A (ja) * | 2020-02-05 | 2021-08-30 | トヨタ自動車株式会社 | 感情推定装置、方法、プログラムおよび車両 |
JP7264079B2 (ja) | 2020-02-05 | 2023-04-25 | トヨタ自動車株式会社 | 感情推定装置、方法、プログラムおよび車両 |
JP2022003497A (ja) * | 2020-06-23 | 2022-01-11 | トヨタ自動車株式会社 | 感情推定装置、感情推定方法及びプログラム |
JP7359084B2 (ja) | 2020-06-23 | 2023-10-11 | トヨタ自動車株式会社 | 感情推定装置、感情推定方法及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019101472A (ja) | 感情推定装置 | |
JP6466385B2 (ja) | サービス提供装置、サービス提供方法およびサービス提供プログラム | |
WO2017219319A1 (zh) | 车辆自动驾驶方法和车辆自动驾驶系统 | |
JP7192222B2 (ja) | 発話システム | |
US20160379643A1 (en) | Group Status Determining Device and Group Status Determining Method | |
JP7222938B2 (ja) | インタラクション装置、インタラクション方法、およびプログラム | |
JP2018072876A (ja) | 感情推定システム、感情推定モデル生成システム | |
CN107825429A (zh) | 对话装置和方法 | |
JP2018055550A (ja) | 施設満足度算出装置 | |
CN113491519A (zh) | 基于情感-认知负荷的数字助理 | |
JP2006034576A (ja) | 乗り物酔い対策装置および乗り物酔い対策方法 | |
JP2020060696A (ja) | コミュニケーション支援システム、コミュニケーション支援方法、およびプログラム | |
JP2022530481A (ja) | 複数の候補からドライバーを選択する提案システム | |
JP2018133696A (ja) | 車載装置、コンテンツ提供システムおよびコンテンツ提供方法 | |
JP7204283B2 (ja) | 雰囲気推測装置およびコンテンツの提示方法 | |
JP2019101805A (ja) | 対話システム | |
JP2020103462A (ja) | 感情推定装置、環境提供システム、車両、感情推定方法、および情報処理プログラム | |
WO2020039994A1 (ja) | カーシェアリングシステム、運転制御調整装置、および車両の嗜好適合化方法 | |
JP6785889B2 (ja) | サービス提供装置 | |
JP7240910B2 (ja) | 乗員観察装置 | |
JP2020103704A (ja) | 情報処理装置及びプログラム | |
WO2021196751A1 (zh) | 基于数字人的车舱交互方法、装置及车辆 | |
JP2019207544A (ja) | 走行制御装置、走行制御方法、及び走行制御プログラム | |
JP7443908B2 (ja) | 制御装置、情報処理システム、および制御方法 | |
JP6945767B2 (ja) | 受話者推定装置、受話者推定方法、及び受話者推定プログラム |