JP2020103704A - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP2020103704A
JP2020103704A JP2018246806A JP2018246806A JP2020103704A JP 2020103704 A JP2020103704 A JP 2020103704A JP 2018246806 A JP2018246806 A JP 2018246806A JP 2018246806 A JP2018246806 A JP 2018246806A JP 2020103704 A JP2020103704 A JP 2020103704A
Authority
JP
Japan
Prior art keywords
emotion
passenger
tendency
moving body
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018246806A
Other languages
English (en)
Other versions
JP7068156B2 (ja
Inventor
祥和 松尾
Yoshikazu Matsuo
祥和 松尾
日淑 江▲崎▼
Hisumi Ezaki
日淑 江▲崎▼
岡田 隆
Takashi Okada
岡田  隆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2018246806A priority Critical patent/JP7068156B2/ja
Priority to CN201911265422.0A priority patent/CN111382665B/zh
Publication of JP2020103704A publication Critical patent/JP2020103704A/ja
Application granted granted Critical
Publication of JP7068156B2 publication Critical patent/JP7068156B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Quality & Reliability (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】車両の搭乗者の顔画像に基づいて搭乗者の感情を推定する感情推定処理を実行する装置が知られているが、顔画像に基づく感情推定処理の推定精度の向上に貢献可能な技術を提供することが望ましい。【解決手段】一の移動体の状況を取得する状況取得部と、一の移動体に搭載された撮像部によって撮像された移動体の搭乗者の画像に基づく感情推定処理を実行して搭乗者の感情を推定する感情推定部であって、移動体の状況に応じた感情推定処理を実行する感情推定部とを備える情報処理装置を提供する。【選択図】図3

Description

本発明は、情報処理装置及びプログラムに関する。
車両の搭乗者の顔画像に基づいて搭乗者の感情を推定する感情推定処理を実行する装置が知られていた(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2018−106530号公報
顔画像に基づく感情推定処理の推定精度の向上に貢献可能な技術を提供することが望ましい。
本発明の第1の態様によれば、情報処理装置が提供される。情報処理装置は、一の移動体の状況を取得する状況取得部を備えてよい。情報処理装置は、一の移動体に搭載された撮像部によって撮像された移動体の搭乗者の画像に基づく感情推定処理を実行して搭乗者の感情を推定する感情推定部であって、移動体の状況に応じた感情推定処理を実行する感情推定部を備えてよい。
上記情報処理装置は、上記搭乗者が上記一の移動体に搭乗しているときの上記一の移動体の状況毎の上記搭乗者の感情の傾向を示す感情傾向情報を格納する感情傾向情報格納部を備えてよく、上記感情推定部は、上記一の移動体の状況に対応する上記搭乗者の感情の傾向を用いた感情推定処理を実行してよい。上記感情傾向情報格納部は、上記一の移動体の複数の搭乗者のそれぞれに対応する感情傾向情報を格納してよく、上記感情推定部は、上記搭乗者に対応する上記感情傾向情報を参照して、上記一の移動体の状況に対応する上記搭乗者の感情の傾向を特定してよい。
上記感情傾向情報は、上記一の移動体の移動速度に関する状況に対応する上記搭乗者の感情の傾向を含んでよい。上記感情傾向情報は、上記一の移動体の移動速度が予め定められた速度より速い状況と、上記搭乗者が恐怖を抱きやすいことを示す感情の傾向とを対応付けてよく、上記感情推定部は、上記一の移動体の移動速度が予め定められた速度より速い場合に、上記感情傾向情報を用いずに上記搭乗者の感情を推定する場合と比較して、上記搭乗者の恐怖の感情の度合が強くなるように上記搭乗者の感情を推定してよい。
上記感情傾向情報は、上記一の移動体の搭乗者の数に関する状況に対応する上記搭乗者の感情の傾向を含んでよい。上記感情傾向情報は、上記一の移動体に複数の搭乗者が搭乗している状況と、上記搭乗者が喜びを抱きやすいことを示す感情の傾向とを対応付けてよく、上記感情推定部は、上記一の移動体に複数の搭乗者が搭乗している場合に、上記感情傾向情報を用いずに上記搭乗者の感情を推定する場合と比較して、上記搭乗者の喜びの感情の度合が強くなるように上記搭乗者の感情を推定してよい。上記感情傾向情報は、上記一の移動体に複数の搭乗者が搭乗している状況と、上記搭乗者が哀しみを抱きやすいことを示す感情の傾向とを対応付けてよく、上記感情推定部は、上記一の移動体に複数の搭乗者が搭乗している場合に、上記感情傾向情報を用いずに上記搭乗者の感情を推定する場合と比較して、上記搭乗者の哀しみの感情の度合が強くなるように上記搭乗者の感情を推定してよい。
上記一の移動体は自動車であってよく、上記感情傾向情報は、上記一の移動体が走行している道路に関する状況に対応する上記搭乗者の感情の傾向を含んでよい。上記感情傾向情報は、上記一の移動体が走行している道路が高速道路である状況と、上記搭乗者が興奮を抱きやすいことを示す感情の傾向とを対応付けてよく、上記感情推定部は、上記一の移動体が高速道路を走行している場合に、上記感情傾向情報を用いずに上記搭乗者の感情を推定する場合と比較して、上記搭乗者の興奮の感情の度合が強くなるように上記搭乗者の感情を推定してよい。上記感情傾向情報は、上記一の移動体が走行している道路が高速道路である状況と、上記搭乗者が緊張を抱きやすいことを示す感情の傾向とを対応付けてよく、上記感情推定部は、上記一の移動体が高速道路を走行している場合に、上記感情傾向情報を用いずに上記搭乗者の感情を推定する場合と比較して、上記搭乗者の緊張の感情の度合が強くなるように上記搭乗者の感情を推定してよい。
上記情報処理装置は、移動体の状況毎に、上記一の移動体の搭乗者の感情を推定するための感情推定用データを格納するデータ格納部を備えてよく、上記感情推定部は、上記一の移動体の状況に対応する感情推定用データを用いた感情推定処理を実行してよい。上記データ格納部は、移動体の状況毎に、上記一の移動体の搭乗者の感情を推定するための感情推定アルゴリズムを格納してよく、上記感情推定部は、上記一の移動体の状況に対応する感情推定アルゴリズムを用いて、上記撮像部によって撮像された上記搭乗者の画像に基づく感情推定処理を実行することにより、上記搭乗者の感情を推定してよい。上記データ格納部は、移動体の状況毎に、上記一の移動体の搭乗者の感情を推定するための上記搭乗者のニュートラルな表情の画像を格納してよく、上記感情推定部は、上記撮像部によって撮像された上記搭乗者の画像と、上記一の移動体の状況に対応する上記搭乗者のニュートラルな表情の画像とを比較することにより、上記搭乗者の感情を推定してよい。
本発明の第2の態様によれば、コンピュータを、上記情報処理装置として機能させるためのプログラムが提供される。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
本実施形態に係る車両100の一例を概略的に示す。 車両100の構成の一例を概略的に示す。 情報処理装置200の機能構成の一例を概略的に示す。 情報処理装置200による処理の流れの一例を概略的に示す。 情報処理装置200による処理の流れの一例を概略的に示す。 情報管理サーバ300の機能構成の一例を概略的に示す。 情報処理装置200として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、本実施形態に係る車両100の一例を概略的に示す。車両100は、複数の搭乗者を乗せて移動する移動体の一例であってよい。車両100は、情報処理装置200を備えてよい。情報処理装置200は、車両100の搭乗者の感情を推定する感情推定処理機能を有する。
本実施形態において、車両100に搭乗している者を区別しない場合、搭乗者と記載し、運転している者としていない者とを区別する場合、前者を運転者52、後者を同乗者54と記載する。車両100が自動運転車である場合、運転者52は、運転席に座っている者であってよい。同乗者54は、助手席に座っている者であってよい。同乗者54は、後部座席に座っている者であってよい。
情報処理装置200は、搭乗者の画像を用いて搭乗者の感情を推定する感情推定処理を実行可能であってよい。情報処理装置200は、車両100が備える撮像部によって撮像された搭乗者の画像を取得する。撮像部は、車両100の車内の全体を撮像可能な1台のカメラ110を有してよい。情報処理装置200は、当該カメラ110から、運転者52の画像及び同乗者54の画像を取得してよい。
撮像部は、複数のカメラ110を有してもよい。情報処理装置200は、複数のカメラ110のそれぞれによって撮像された運転者52の画像及び同乗者54の画像を、当該複数のカメラ110から取得してよい。撮像部は、例えば、運転席及び助手席を撮像可能なカメラ110と、後部座席を撮像可能なカメラ110とを有する。撮像部は、運転席を撮像可能なカメラ110と、助手席を撮像可能なカメラ110とを有してもよい。撮像部は、後部座席の複数の同乗者54のそれぞれを撮像可能な複数のカメラ110を有してもよい。
情報処理装置200は、例えば、搭乗者のニュートラルな表情の画像を予め格納しておく。ニュートラルな表情とは、いわゆる素の表情であってよい。搭乗者の素の表情とは、例えば、搭乗者が何も意識していないときの表情である。情報処理装置200は、カメラ110によって撮像された搭乗者の顔画像とニュートラルな表情の画像とを比較することによって、搭乗者の感情を推定してよい。
情報処理装置200は、例えば、初期設定としてカメラ110によって撮像された搭乗者のニュートラルな表情の画像を格納する。情報処理装置200は、搭乗者のニュートラルな表情の画像を他の装置から受信して格納してもよい。情報処理装置200は、例えば、搭乗者が所有するスマートフォン等の携帯通信端末から、Bluetooth(登録商標)等の近距離無線通信を介して、搭乗者のニュートラルな表情の画像を受信する。また、情報処理装置200は、例えば、搭乗者のニュートラルな表情の画像を管理する管理サーバから、移動体通信ネットワーク等を介して、搭乗者のニュートラルな表情の画像を受信する。情報処理装置200は、1人の搭乗者につき、複数のニュートラルな表情の画像を格納してもよい。
情報処理装置200は、搭乗者のニュートラルな表情の画像を用いるのではなく、汎用のニュートラルな表情の画像を用いて搭乗者の感情を推定してもよい。汎用のニュートラルな表情の画像とは、多数の人の平均的なニュートラルな表情の画像であってよい。汎用のニュートラルな表情の画像は、性別、年齢、及び人種等の属性毎に用意されていてもよい。
情報処理装置200は、例えば、ニュートラルな表情との相違と、人間の感情パターンとを対応付けた対応付けデータを予め格納しておく。対応付けデータは、例えば、ニュートラルな表情に対して口角が上がっていることとポジティブな感情とを対応付け、ニュートラルな表情に対して口角が下がっていることとネガティブな感情とを対応付ける。対応付けデータは、ニュートラルな表情との相違の度合と、感情の度合とをさらに対応付けてよい。例えば、対応付けデータは、ニュートラルな表情に対して、より口角が上がっているほど、より高い度合を対応付ける。情報処理装置200は、カメラ110によって撮像された搭乗者の画像、ニュートラルな表情の画像、及び当該対応付けデータを用いて、感情のパターンのいずれかと、感情の度合とを特定することにより、搭乗者の感情の推定結果とする。
人間の感情のパターンとして、例えば、人間の感情を活性度(Arousal)と覚醒度(Valence)の2軸で表し、感情の度合いを原点からの距離で表すラッセル(Russell)の円環モデルに基づく感情のパターンを採用し得る。また、例えば、人間の感情を、8つの基本感情(喜び、信頼、恐れ、驚き、悲しみ、嫌悪、怒り、期待)と、隣り合う2つの感情の組み合わせによる応用感情とに分類したプルチック(Plutchik)の感情の輪に基づく感情のパターンを採用し得る。これらに限らず、本実施形態に係る情報処理装置200は、任意の感情のパターンを採用し得る。
情報処理装置200は、ニュートラルな表情の画像を用いるのではなく、搭乗者が複数の種類の感情のそれぞれを抱いているときの顔画像を格納しておき、その後にカメラ110によって撮像された搭乗者の顔画像と、格納している複数の顔画像とを比較することによって、搭乗者の感情を推定してもよい。例えば、情報処理装置200は、格納している複数の顔画像のうち、カメラ110によって撮像された搭乗者の顔画像に最も類似する顔画像を特定し、特定した顔画像に対応する感情の種類を、搭乗者の感情の種類の推定結果とする。また、情報処理装置200は、カメラ110によって撮像された搭乗者の顔画像と、当該顔画像に最も類似する顔画像との類似度に応じた度合を、搭乗者の感情の度合の推定結果としてよい。
情報処理装置200は、予め格納した画像を用いるのではなく、搭乗者の顔画像の変動等に基づいて、搭乗者の感情を推定してもよい。人物の顔画像から当該人物の感情を推定する感情推定技術として様々な技術が知られているが、当該様々な技術のうちの任意の技術を採用し得る。
車両100の搭乗者は、車両100の状況毎に、抱く感情の傾向が異なる場合がある。例えば、スピードが速いと怖く感じる人がいるが、このような人が車両100に搭乗した場合、車両100の速度が速い状況においては、恐怖の感情を抱く可能性が高いといえる。また、例えば、他の人と一緒にいることを喜ばしいと感じる人がいるが、このような人が車両100に搭乗した場合、他の搭乗者がいれば喜びの感情を抱く可能性が高いといえる。また、例えば、1人でいることが好きな人がいるが、このような人が車両100に搭乗した場合に、他の搭乗者がいれば哀しみの感情を抱く可能性が高いといえる。
本実施形態に係る情報処理装置200は、搭乗者の感情を推定する場合に、車両100の状況に応じた感情推定処理を実行する。情報処理装置200は、例えば、車両100の状況毎の搭乗者の感情の傾向を示す感情傾向情報を格納しておき、車両100の状況に対応する搭乗者の感情の傾向を用いた感情推定処理を実行する。
例えば、情報処理装置200は、スピードが速いと怖く感じる搭乗者の感情を推定する場合に、感情傾向情報を用いない場合と比較して恐怖の度合が強くなるように、搭乗者の感情を推定する。情報処理装置200は、例えば、感情傾向情報を用いない場合と同様に搭乗者の感情を推定した後、恐怖の度合を強める補正を行う。また、例えば、情報処理装置200は、恐怖の度合が強くなるようにパラメータを設定した上で、感情推定処理を実行する。これにより、感情推定結果が、搭乗者の実際の感情を示す確率を高めることができ、感情推定精度の向上に貢献し得る。
情報処理装置200は、任意の手法によって、感情傾向情報を取得してよい。例えば、情報処理装置200は、搭乗者本人によって入力された感情傾向情報を取得する。また、例えば、情報処理装置200は、搭乗者の感情推定結果から、感情傾向情報を生成してもよい。例えば、情報処理装置200は、車両100の状況と、当該状況における搭乗者の感情推定結果とを収集して分析することによって、車両100の複数の状況のそれぞれにおける搭乗者の感情の傾向を特定し、特定結果を用いて感情傾向情報を生成する。
情報処理装置200は、生成した感情傾向情報を、他の車両100等と共有してもよい。例えば、情報処理装置200は、車両100に搭乗した搭乗者の識別情報を取得しておき、搭乗者に対して生成した感情傾向情報と識別情報とを対応付けて格納する。そして、情報処理装置200は、対応付けて格納している識別情報及び感情傾向情報を、ネットワーク10を介して情報管理サーバ300に送信する。
搭乗者の識別情報は、例えば、情報管理サーバ300によって割り振られるユーザIDである。搭乗者を識別可能な識別情報は、例えば搭乗者が所有する携帯電話の番号等、搭乗者を識別することができれば、どのような情報であってもよい。
ネットワーク10は、任意のネットワークであってよい。例えば、ネットワーク10は、3G(3rd Generation)通信システム、LTE(Long Term Evolution)通信システム、及び5G(5th Generation)通信システム等の移動体通信システムを含んでよい。ネットワーク10は、インターネット、公衆無線LAN(Local Area Network)、及び任意の専用網等を含んでもよい。
情報管理サーバ300は、複数の情報処理装置200から収集した識別情報及び感情傾向情報を登録しておく。情報管理サーバ300は、例えば、識別情報を含む要求を受信した場合であって、当該識別情報に対応する感情傾向情報が登録されている場合に、要求の送信元に対して、感情傾向情報を送信する。
要求の送信元は、例えば、車両100の情報処理装置200である。情報処理装置200は、例えば、情報処理装置200を搭載している車両100に搭乗者が搭乗した場合に、当該搭乗者の識別情報を取得して、識別情報を含む要求を情報管理サーバ300に送信し、情報管理サーバ300から感情傾向情報を受信する。これにより、情報処理装置200は、他の車両100の情報処理装置200によって生成された感情傾向情報を用いて、搭乗者の感情を推定することができる。要求の送信元は、人物の顔画像に基づく感情推定処理を実行する装置であれば、任意の装置であり得る。
図2は、車両100の構成の一例を概略的に示す。図2に示す各種構成は、車両100が備えるナビゲーションシステムの一部であってもよい。
車両100は、カメラ110を備える。図2では、車両100が、運転席162、助手席164、及び後部座席166のすべてを撮像可能なカメラ110を備える場合を例示する。図2において例示する画角112が示すように、カメラ110によれば、運転席162、助手席164、及び後部座席166の搭乗者を撮像可能である。図2におけるカメラ110の配置は例示であり、カメラ110は、運転席162、助手席164、及び後部座席166のすべてを撮像可能であれば任意の場所に配置されてよい。なお、車両100は、運転席162、助手席164、及び後部座席166のそれぞれを撮像する複数のカメラ110を備えてもよい。
車両100は、マイク122を備える。図2では、車両100が、運転席162、助手席164、及び後部座席166のすべてに対応するマイク122を備える場合を例示する。図2におけるマイク122の配置は例示であり、マイク122は、運転席162、助手席164及び後部座席166のすべての搭乗者の音声を拾うことができれば、任意の場所に配置されてよい。車両100は、複数のマイク122を備えてもよい。複数のマイク122は、例えば、運転席162用のマイク122、助手席164用のマイク122、及び後部座席166用のマイク122を含む。
車両100は、スピーカ124を備える。図2では、車両100が、運転席162、助手席164、及び後部座席166のすべてに対応するスピーカ124を備える場合を例示する。図2におけるスピーカ124の配置は例示であり、スピーカ124は、任意の場所に配置されてよい。車両100は、複数のスピーカ124を備えてもよい。
車両100は、ディスプレイ130を備える。図2におけるディスプレイ130の配置は例示であり、ディスプレイ130は、主に運転席162及び助手席164から閲覧可能であれば、任意の場所に配置されてよい。ディスプレイ130は、タッチパネルディスプレイであってよい。車両100は、複数のディスプレイ130を備えてもよい。例えば、車両100は、運転席162及び助手席164用のディスプレイ130と、後部座席166用のディスプレイ130とを備える。
車両100は、無線通信アンテナ142を備える。無線通信アンテナ142は、ネットワーク10上の装置と通信するためのアンテナであってよい。車両100は、例えば、無線通信アンテナ142によって、移動体通信システムにおける無線基地局及び無線ルータ等を介してネットワーク10上の装置と通信する。なお、無線通信アンテナ142は、車車間通信及び路車間通信等を行うためのアンテナであってもよく、車両100は、車車間通信及び路車間通信等を介して、ネットワーク10上の装置と通信してもよい。
車両100は、GPS(Global Positioning System)アンテナ144を備える。GPSアンテナ144は、GPS衛星から位置測定用の電波を受信する。車両100は、GPSアンテナ144が受信する位置測定用の電波を用いて、車両100の現在地を測位してよい。車両100は、さらに自立航法による測位を組み合わせることによって、車両100の現在地を測位してもよい。車両100は、公知の任意の測位技術を用いて、車両100の現在地を測位してよい。
車両100は、車両100の搭乗者の生体情報を検知可能な不図示のセンサを備えてもよい。当該センサは、例えば、ハンドル150、運転席162、助手席164、及び後部座席166等に配置され、搭乗者の心拍、脈拍、発汗、血圧、及び体温等の生体情報を検知する。車両100は、搭乗者が身に着けているウェアラブルデバイスと通信接続する近距離無線通信部を備えていてもよく、ウェアラブルデバイスによって検知された搭乗者の生体情報を、当該ウェアラブルデバイスから受信してもよい。近距離無線通信部は、例えば、Bluetooth等によってウェアラブルデバイスと通信接続する。
上述の各種構成は、情報処理装置200が備えてもよい。情報処理装置200は、車両100が備えるナビゲーションシステムと一体であってよく、また、別体であってもよい。
図3は、情報処理装置200の機能構成の一例を概略的に示す。情報処理装置200は、画像取得部202、音声取得部204、センサ情報取得部206、感情推定部210、状況取得部220、感情傾向情報格納部230、感情傾向情報生成部232、識別情報取得部234、感情傾向情報送信部236、感情傾向情報取得部238、データ格納部240、及びデータ取得部242を備える。なお、情報処理装置200がこれらのすべての構成を備えることは必須とは限らない。
画像取得部202は、車両100の搭乗者の画像を取得する。画像取得部202は、車両100の撮像部によって撮像された搭乗者の画像を取得する。画像取得部202は、100の撮像部によって撮像される搭乗者の画像を継続的に取得してよい。
音声取得部204は、車両100の搭乗者の音声を取得する。音声取得部204は、車両100のマイク122から入力された搭乗者の音声を取得する。音声取得部204は、車両100のマイク122から搭乗者の音声を継続的に取得してよい。
センサ情報取得部206は、センサによって検知された車両100の搭乗者の生体情報を取得する。センサ情報取得部206は、例えば、ハンドル150、運転席162、助手席164、及び後部座席166等に配置されたセンサによって検知された搭乗者の心拍、脈拍、発汗、血圧、及び体温等の生体情報を、当該センサから取得する。また、センサ情報取得部206は、例えば、搭乗者が身に着けているウェアラブルデバイスによって検知された搭乗者の心拍、脈拍、発汗、血圧、及び体温等の生体情報を、当該ウェアラブルデバイスから取得する。
感情推定部210は、感情推定処理を実行して搭乗者の感情の種類及び度合を推定する。感情推定部210は、画像取得部202によって取得された搭乗者の顔画像を用いた感情推定処理を実行してよい。
また、感情推定部210は、音声取得部204によって取得された搭乗者の音声を用いた感情推定処理を実行可能であってよい。感情推定部210は、例えば、音声自体の特徴量に基づく感情推定処理を実行する。音声自体の特徴量としては、音声の大きさ、トーン、スペクトル、及び基本周波数等が例示できる。感情推定部210は、音声を音声認識した結果の文字列に基づく感情推定処理を実行してもよい。また、感情推定部210は、音声自体の特徴量と、音声を音声認識した結果の文字列との両方に基づく感情推定処理を実行してもよい。車両100が複数の搭乗者のそれぞれの音声を拾う複数のマイクを備えている場合、感情推定部210は、マイクの違いによって、話者を識別してよい。一つのマイクによって複数の搭乗者の音声を拾う場合、感情推定部210は、公知の話者識別機能を用いることによって、話者を識別してよい。公知の話者識別機能としては、音声の特徴量を用いる方法、音声の取得方向から判定する方法等が知られている。人物の音声から当該人物の感情を推定する感情推定技術として様々な技術が知られているが、感情推定部210は、当該様々な技術のうちの任意の技術を採用し得る。
また、感情推定部210は、センサ情報取得部206によって取得された複数種類の生体情報を用いた感情推定処理を実行可能であってよい。感情推定部210は、例えば、搭乗者の心拍、脈拍、発汗、血圧、及び体温等を用いた感情推定処理を実行する。人物の心拍、脈拍、発汗、血圧、及び体温等から当該人物の感情を推定する感情推定技術として様々な技術が知られているが、情報処理装置200は、当該様々な技術のうちの任意の技術を採用し得る。
状況取得部220は、車両100の状況を取得する。状況取得部220は、例えば、車両100の走行状況を取得する。状況取得部220は、例えば、車両100のナビゲーションシステムによって管理されている車両100の走行状況を、ナビゲーションシステムから取得する。車両100のナビゲーションシステムは、車両100の位置情報、車両100が走行している周辺の道路データ、車両100の速度、加速度、ステアリングの操作状態、及びブレーキの操作状態等から、車両100の走行状況を判定してよい。
車両100の走行状況は、車両100の状態及び車両100が走行している道路の状況等を含んでよい。車両100の状態は、例えば、車両100の走行速度に関する情報を含む。車両100の走行速度に関する情報は、例えば、車両100が通常速度で走行していること、車両100が加速していること、車両100が急加速したこと、及び車両100が急停止したこと等を含む。
車両100が走行している道路の状況は、例えば、車両100が走行している道路の形状を含む。道路の形状としては、直線、カーブ、及び坂道等が例示できる。カーブは、カーブの度合いによって、緩いカーブ、普通のカーブ、急カーブ等に細分化されてもよい。坂道は、上り坂及び下り坂に区別されてよく、また、坂道の度合いによって緩い上り坂、普通の上り坂、急な上り坂、緩い下り坂、普通の下り坂、急な下り坂等に細分化されてもよい。
また、状況取得部220は、例えば、車両100の内部状況を取得する。状況取得部220は、例えば、画像取得部202が取得する画像によって、車両100の内部状況を取得する。状況取得部220は、例えば、車両100の搭乗者の数を取得する。また、状況取得部220は、車両100の搭乗者を識別して個人を特定することにより、車両100に搭乗している人物の情報を取得する。
感情傾向情報格納部230は、搭乗者の感情傾向情報を格納する。感情傾向情報格納部230は、複数の搭乗者のそれぞれに対応する感情傾向情報を格納してよい。感情傾向情報格納部230は、例えば、車両100を常用している人物の感情傾向情報を格納する。例えば、感情傾向情報格納部230は、車両100の所有者と、所有者と同居している者の感情傾向情報を格納する。感情傾向情報格納部230は、車両100を常用している人物以外に、車両100に搭乗する可能性がある人物の感情傾向情報を格納してよい。
感情傾向情報は、車両100の移動速度に関する状況に対応する搭乗者の感情の傾向を含んでよい。感情傾向情報は、例えば、車両100の走行速度が予め定められた速度より速い状況と、搭乗者が恐怖を抱きやすいことを示す感情の傾向とを対応付ける。
感情傾向情報は、例えば、車両100の搭乗者の数に関する状況に対応する搭乗者の感情の傾向を含んでよい。感情傾向情報は、例えば、車両100に複数の搭乗者が搭乗している状況と、搭乗者が喜びを抱きやすいことを示す感情の傾向とを対応付ける。また、感情傾向情報は、例えば、車両100に複数の搭乗者が搭乗している状況と、搭乗者が哀しみを抱きやすいことを示す感情の傾向とを対応付ける。
感情傾向情報は、車両100が走行している道路に関する状況に対応する搭乗者の感情の傾向を含んでよい。感情傾向情報は、例えば、車両100が走行している道路が高速道路である状況と、搭乗者が興奮を抱きやすいことを示す感情の傾向とを対応付ける。また、感情傾向情報は、例えば、車両100が走行している道路が高速道路である状況と、搭乗者が緊張を抱きやすいことを示す感情の傾向とを対応付ける。
感情傾向情報格納部230は、複数の搭乗者のそれぞれについて、下記表1に例示するように、運転する場合と同乗する場合とのそれぞれの感情の傾向を示す感情傾向情報を格納してよい。
Figure 2020103704
感情推定部210は、状況取得部220によって取得された車両100の状況に応じた感情推定処理を実行する。感情推定部210は、例えば、搭乗者に対応する感情傾向情報を参照し、状況取得部220が取得した状況に対応する搭乗者の感情の傾向を用いた感情推定処理を実行する。感情推定部210は、搭乗者が運転者52である場合、当該搭乗者が運転する場合のそれぞれの感情の傾向を示す感情傾向情報を用いた感情推定処理を実行してよい。また、感情推定部210は、搭乗者が同乗者54である場合、当該搭乗者が同乗する場合のそれぞれの感情の傾向を示す感情傾向情報を用いた感情推定処理を実行してよい。
感情推定部210は、例えば、搭乗者が3人いる場合、3人のそれぞれの感情傾向情報を感情傾向情報格納部230から読み出す。下記表2は、読み出した感情傾向情報の一例を示す。
Figure 2020103704
感情推定部210は、例えば、車両100の移動速度が予め定められた速度より速い場合に、感情傾向情報を用いずに運転者の感情を推定する場合と比較して、運転者の興奮の感情の度合が強くなるように運転者の感情を推定する。また、感情推定部210は、例えば、車両100の移動速度が予め定められた速度より速い場合に、感情傾向情報を用いずに同乗者Aの感情を推定する場合と比較して、同乗者Aの恐怖の感情の度合が強くなるように同乗者Aの感情を推定する。
感情推定部210は、車両100に複数の搭乗者が搭乗していることから、感情傾向情報を用いずに運転者の感情を推定する場合と比較して、運転者の哀しみの感情の度合が強くなるように運転者の感情を推定してよい。また、感情推定部210は、車両100に複数の搭乗者が搭乗していることから、感情傾向情報を用いずに同乗者Bの感情を推定する場合と比較して、同乗者Bの喜びの感情の度合が強くなるように運転者の感情を推定してよい。
感情推定部210は、例えば、車両100が高速道路を走行している場合に、感情傾向情報を用いずに運転者の感情を推定する場合と比較して、運転者の興奮の感情の度合が強くなるように運転者の感情を推定する。また、感情推定部210は、例えば、車両100が高速道路を走行している場合に、感情傾向情報を用いずに同乗者A、同乗者Bの感情を推定する場合と比較して、同乗者A、同乗者Bの興奮の感情の度合が強くなるように運転者の感情を推定する。
上述したように、感情推定部210が、搭乗者に対応する感情傾向情報を参照し、車両100の状況に対応する搭乗者の感情の傾向を用いた感情推定処理を実行することにより、各状況において搭乗者が抱きやすい感情の情報を反映した推定結果を導出できるので、推定精度の向上に貢献し得る。
感情傾向情報生成部232は、感情傾向情報を生成する。感情傾向情報生成部232は、例えば、状況取得部220が取得した状況と、感情推定部210が感情傾向情報を用いずに推定した搭乗者の感情の推定結果とから、感情傾向情報を生成する。感情傾向情報生成部232は、車両100の状況と、当該状況における搭乗者の感情推定結果とを収集して分析することによって、車両100の複数の状況のそれぞれにおける搭乗者の感情の傾向を特定し、特定結果を用いて感情傾向情報を生成してよい。感情傾向情報生成部232は、生成した感情傾向情報を感情傾向情報格納部230に格納する。
識別情報取得部234は、車両100の搭乗者の識別情報を取得する。識別情報取得部234は、例えば、画像取得部202によって取得される搭乗者の顔画像に対して人物認識技術を適用することによって人物を特定し、特定した人物の識別情報を取得する。また、識別情報取得部234は、例えば、音声取得部204によって取得される搭乗者の音声に対して話者認識技術を適用することによって人物を特定し、特定した人物の識別情報を取得する。識別情報取得部234は、搭乗者が所有する携帯通信端末から、近距離無線通信を介して、搭乗者の識別情報を受信してもよい。感情傾向情報生成部232は、識別情報取得部234が取得する搭乗者の識別情報を対応付けて、当該搭乗者の感情傾向情報を感情傾向情報格納部230に格納してよい。
感情傾向情報送信部236は、感情傾向情報格納部230に格納されている、識別情報が対応付けられた感情傾向情報を、情報管理サーバ300に送信する。感情傾向情報送信部236は、ネットワーク10を介して、感情傾向情報を情報管理サーバ300に送信してよい。
感情傾向情報取得部238は、情報管理サーバ300から感情傾向情報を取得する。感情傾向情報取得部238は、例えば、識別情報取得部234によって取得された車両100の搭乗者の識別情報を含む要求を情報管理サーバ300に送信し、情報管理サーバ300から、要求に含まれる識別情報に対応する感情傾向情報を受信してよい。感情傾向情報取得部238は、情報管理サーバ300から受信した感情傾向情報を感情傾向情報格納部230に格納してよい。
データ格納部240は、車両100の搭乗者の感情を推定するための感情推定用データを格納する。データ格納部240は、車両100の状況毎に、感情推定用データを格納してよい。感情推定用データは、車両100がある状況のときに当該車両100の搭乗者が抱きやすい感情の種類が推定結果として導出されやすくなるように生成されたデータであってよい。また、感情推定用データは、車両100がある状況のときに搭乗者が抱きやすい感情の種類の感情の度合が強い度合となるように生成されたデータであってよい。
データ格納部240は、例えば、車両100の走行速度毎の感情推定用データを格納する。また、データ格納部240は、例えば、車両100の搭乗者の数毎の感情推定用データを格納する。また、データ格納部240は、例えば、自動運転及び手動運転のそれぞれ用の感情推定用データを格納する。データ格納部240は、これらに限らず、さらに多様な状況に応じた感情推定用データを格納してもよい。
感情推定部210は、状況取得部220によって取得された状況に対応する感情推定用データを用いた感情推定処理を実行してよい。これにより、車両100の状況に応じた搭乗者の感情の傾向を反映した感情推定結果を導出することができる。
感情推定用データは、例えば、感情推定アルゴリズムである。感情推定部210は、状況取得部220によって取得された状況に対応する感情推定アルゴリズムを用いた感情推定アルゴリズムを実行してよい。データ格納部240は、車両100の状況毎に、感情推定アルゴリズムを格納してよい。データ格納部240は、例えば、車両100がある状況のときに搭乗者が抱きやすい感情の種類が推定結果として導出されやすい感情推定アルゴリズムを、当該状況に対応付けて格納する。また、データ格納部240は、例えば、車両100がある状況のときに搭乗者が抱きやすい感情の種類の感情の度合が強い度合となるように生成された感情推定アルゴリズムを、当該状況に対応付けて格納する。
データ格納部240は、例えば、車両100の走行速度毎の感情推定アルゴリズムを格納する。具体例として、データ格納部240は、車両100の走行速度がより速い状況に対して、推定結果の恐怖の感情がより強い度合となるように生成された感情推定アルゴリズムを対応付ける。これにより、スピードが速いと怖く感じる搭乗者の感情を推定する場合に、推定結果における恐怖の感情の度合をより強い度合とすることができ、推定結果の感情と、搭乗者の実際の感情との一致度を高め得る。
また、感情推定用データは、例えば、搭乗者のニュートラルな表情の顔画像である。感情推定部210は、例えば、画像取得部202によって取得された搭乗者の顔画像と、状況取得部220によって取得された状況に対応する搭乗者のニュートラルな表情の画像とを比較することにより、搭乗者の感情を推定する。データ格納部240は、車両100の状況毎に、搭乗者のニュートラルな表情の顔画像を格納してよい。データ格納部240は、例えば、車両100がある状況のときに搭乗者が抱きやすい感情の種類が推定結果として導出されやすい搭乗者のニュートラルな表情の顔画像を、当該状況に対応付けて格納する。また、データ格納部240は、例えば、車両100がある状況のときに搭乗者が抱きやすい感情の種類の度合が強い度合となるような搭乗者のニュートラルな表情の画像を、当該状況に対応付けて格納する。搭乗者が抱きやすい感情の種類の度合が強い度合となるような搭乗者のニュートラルな表情とは、このような種類の感情を抱いたときに変化する部分の変化量がより大きくなるような表情であってよい。例えば、目が大きく見開いているほど、驚きの感情の度合を強いと判定する場合、驚きの感情の度合が強い度合となるような搭乗者のニュートラルな表情とは、目の見開きが少ない表情である。
データ格納部240は、例えば、車両100の走行速度毎のニュートラルな表情の画像を格納する。具体例として、データ格納部240は、車両100の走行速度がより速い状況に対して、推定結果の恐怖の感情がより強い度合となるような搭乗者のニュートラルな表情の画像を対応付ける。これにより、スピードが速いと怖く感じる搭乗者の感情を推定する場合に、推定結果における恐怖の感情の度合をより強い度合とすることができ、推定結果の感情と、搭乗者の実際の感情との一致度を高め得る。
図4は、情報処理装置200による処理の流れの一例を概略的に示す。ここでは、感情推定部210が感情傾向情報を用いた感情推定処理を実行する場合の処理の流れを説明する。
ステップ(ステップをSと省略して記載する場合がある。)102では、状況取得部220が車両100の状況を取得する。S104では、画像取得部202が搭乗者の画像を取得する。S106では、感情推定部210が感情推定処理を実行するか否かを判定する。感情推定部210は、例えば、周期的に感情推定処理を実行してよく、感情推定部210は、実行周期になったか否かを判定する。当該周期は、例えば、画像取得部202が取得する画像のフレームの周期であってよい。感情推定処理を実行すると判定した場合、S108に進み、実行しないと判定した場合、S102に戻る。
S108では、感情推定部210が、感情傾向情報格納部230に格納されている複数の感情傾向情報のうち、感情推定対象の搭乗者に対応する感情傾向情報を参照する。感情推定部210は、車両100に複数の搭乗者が搭乗している場合、複数の搭乗者のそれぞれに対応する感情傾向情報を参照してよい。S110では、感情推定部210が、S102において取得された車両100の状況に対応する感情の傾向を特定し、当該感情の傾向を用いた感情推定処理を実行する。感情推定部210は、車両100に複数の搭乗者が搭乗している場合、搭乗者毎に感情推定処理を実行してよい。そして、S102に戻る。
図4に示す処理は、感情推定処理の実行を停止するまで継続されてよい。情報処理装置200は、例えば、搭乗者によって感情推定処理の実行の停止が指示された場合、車両100のエンジンが停止した場合、車両100の電源がオフにされた場合等に、図4に示す処理を終了する。
図5は、情報処理装置200による処理の流れの一例を概略的に示す。ここでは、感情推定部210が、感情推定用データを用いた感情推定処理を実行する場合の処理の流れを説明する。
S202では、状況取得部220が車両100の状況を取得する。S204では、画像取得部202が搭乗者の画像を取得する。S206では、感情推定部210が感情推定処理を実行するか否かを判定する。感情推定処理を実行すると判定した場合、S208に進み、実行しないと判定した場合、S202に戻る。
S208では、感情推定部210が、データ格納部240に格納されている複数の感情推定用データのうち、S202において取得された状況及び感情推定対象の搭乗者に対応する感情推定用データを取得する。感情推定部210は、車両100に複数の搭乗者が搭乗している場合、搭乗者毎に感情推定用データを取得してよい。S210では、感情推定部210が、S208において取得した感情推定用データを用いた感情推定処理を実行する。感情推定部210は、車両100に複数の搭乗者が搭乗している場合、搭乗者毎に感情推定処理を実行してよい。そして、S202に戻る。
図5に示す処理は、感情推定処理の実行を停止するまで継続されてよい。情報処理装置200は、例えば、搭乗者によって感情推定処理の実行の停止が指示された場合、車両100のエンジンが停止した場合、車両100の電源がオフにされた場合等に、図5に示す処理を終了する。
図6は、情報管理サーバ300の機能構成の一例を概略的に示す。情報管理サーバ300は、感情傾向情報受信部302、感情傾向情報格納部304、要求受信部306、及び感情傾向情報送信部308を備える。
感情傾向情報受信部302は、複数の情報処理装置200から、ネットワーク10を介して、識別情報が対応付けられた感情傾向情報を受信する。感情傾向情報格納部304は、感情傾向情報受信部302が受信した感情傾向情報を格納する。
要求受信部306は、識別情報を含む、感情傾向情報の要求を受信する。感情傾向情報送信部308は、要求受信部306が要求を受信した場合に、要求に含まれる識別情報に対応する感情傾向情報が感情傾向情報格納部230に格納されているか否かを判定し、格納されている場合に、要求の送信元に、感情傾向情報を送信する。
図7は、情報処理装置200として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、上記実施形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、上記実施形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、上記実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。
本実施形態によるコンピュータ1200は、CPU1212、RAM1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、DVDドライブ1226、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。DVDドライブ1226は、DVD−ROMドライブ及びDVD−RAMドライブ等であってよい。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230及びタッチパネルのような入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。
CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。コンピュータ1200は、ディスプレイデバイス1218を備えていなくてもよく、その場合、グラフィックコントローラ1216は、イメージデータが外部のディスプレイデバイスに表示されるようにする。
通信インタフェース1222は、無線通信ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。DVDドライブ1226は、プログラム又はデータをDVD−ROM1227等から読み取り、記憶装置1224に提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。
ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、USBポート等を介して、様々な入出力ユニットを入出力コントローラ1220に接続してよい。
プログラムは、DVD−ROM1227又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、DVD−ROM1227、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
また、CPU1212は、記憶装置1224、DVDドライブ1226(DVD−ROM1227)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
上で説明したプログラム又はソフトウェアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
上記実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD−ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
上記実施形態では、移動体の例として車両100を挙げて説明したが、これに限らない。移動体は、複数の搭乗者を搭乗させて移動可能であれば、どのようなものであってもよい。例えば、車両100の他、電車、飛行機、及び船舶等であってよい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10 ネットワーク、52 運転者、54 同乗者、100 車両、110 カメラ、112 画角、122 マイク、124 スピーカ、130 ディスプレイ、142 無線通信アンテナ、144 GPSアンテナ、150 ハンドル、162 運転席、164 助手席、166 後部座席、200 情報処理装置、202 画像取得部、204 音声取得部、206 センサ情報取得部、210 感情推定部、220 状況取得部、230 感情傾向情報格納部、232 感情傾向情報生成部、234 識別情報取得部、236 感情傾向情報送信部、238 感情傾向情報取得部、240 データ格納部、242 データ取得部、300 情報管理サーバ、302 感情傾向情報受信部、304 感情傾向情報格納部、306 要求受信部、308 感情傾向情報送信部、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222 通信インタフェース、1224 記憶装置、1226 DVDドライブ、1227 DVD−ROM、1230 ROM、1240 入出力チップ

Claims (15)

  1. 一の移動体の状況を取得する状況取得部と、
    前記一の移動体に搭載された撮像部によって撮像された前記一の移動体の搭乗者の画像に基づく感情推定処理を実行して前記搭乗者の感情を推定する感情推定部であって、前記一の移動体の状況に応じた感情推定処理を実行する感情推定部と
    を備える情報処理装置。
  2. 前記搭乗者が前記一の移動体に搭乗しているときの前記一の移動体の状況毎の前記搭乗者の感情の傾向を示す感情傾向情報を格納する感情傾向情報格納部
    を備え
    前記感情推定部は、前記一の移動体の状況に対応する前記搭乗者の感情の傾向を用いた感情推定処理を実行する、請求項1に記載の情報処理装置。
  3. 前記感情傾向情報格納部は、前記一の移動体の複数の搭乗者のそれぞれに対応する感情傾向情報を格納し、
    前記感情推定部は、前記搭乗者に対応する前記感情傾向情報を参照して、前記一の移動体の状況に対応する前記搭乗者の感情の傾向を特定する、請求項2に記載の情報処理装置。
  4. 前記感情傾向情報は、前記一の移動体の移動速度に関する状況に対応する前記搭乗者の感情の傾向を含む、請求項2又は3に記載の情報処理装置。
  5. 前記感情傾向情報は、前記一の移動体の移動速度が予め定められた速度より速い状況と、前記搭乗者が恐怖を抱きやすいことを示す感情の傾向とを対応付け、
    前記感情推定部は、前記一の移動体の移動速度が予め定められた速度より速い場合に、前記感情傾向情報を用いずに前記搭乗者の感情を推定する場合と比較して、前記搭乗者の恐怖の感情の度合が強くなるように前記搭乗者の感情を推定する、請求項4に記載の情報処理装置。
  6. 前記感情傾向情報は、前記一の移動体の搭乗者の数に関する状況に対応する前記搭乗者の感情の傾向を含む、請求項2から5のいずれか一項に記載の情報処理装置。
  7. 前記感情傾向情報は、前記一の移動体に複数の搭乗者が搭乗している状況と、前記搭乗者が喜びを抱きやすいことを示す感情の傾向とを対応付け、
    前記感情推定部は、前記一の移動体に複数の搭乗者が搭乗している場合に、前記感情傾向情報を用いずに前記搭乗者の感情を推定する場合と比較して、前記搭乗者の喜びの感情の度合が強くなるように前記搭乗者の感情を推定する、請求項6に記載の情報処理装置。
  8. 前記感情傾向情報は、前記一の移動体に複数の搭乗者が搭乗している状況と、前記搭乗者が哀しみを抱きやすいことを示す感情の傾向とを対応付け、
    前記感情推定部は、前記一の移動体に複数の搭乗者が搭乗している場合に、前記感情傾向情報を用いずに前記搭乗者の感情を推定する場合と比較して、前記搭乗者の哀しみの感情の度合が強くなるように前記搭乗者の感情を推定する、請求項6に記載の情報処理装置。
  9. 前記一の移動体は自動車であり、
    前記感情傾向情報は、前記一の移動体が走行している道路に関する状況に対応する前記搭乗者の感情の傾向を含む、請求項2から8のいずれか一項に記載の情報処理装置。
  10. 前記感情傾向情報は、前記一の移動体が走行している道路が高速道路である状況と、前記搭乗者が興奮を抱きやすいことを示す感情の傾向とを対応付け、
    前記感情推定部は、前記一の移動体が高速道路を走行している場合に、前記感情傾向情報を用いずに前記搭乗者の感情を推定する場合と比較して、前記搭乗者の興奮の感情の度合が強くなるように前記搭乗者の感情を推定する、請求項9に記載の情報処理装置。
  11. 前記感情傾向情報は、前記一の移動体が走行している道路が高速道路である状況と、前記搭乗者が緊張を抱きやすいことを示す感情の傾向とを対応付け、
    前記感情推定部は、前記一の移動体が高速道路を走行している場合に、前記感情傾向情報を用いずに前記搭乗者の感情を推定する場合と比較して、前記搭乗者の緊張の感情の度合が強くなるように前記搭乗者の感情を推定する、請求項9に記載の情報処理装置。
  12. 移動体の状況毎に、前記一の移動体の搭乗者の感情を推定するための感情推定用データを格納するデータ格納部
    を備え、
    前記感情推定部は、前記一の移動体の状況に対応する感情推定用データを用いた感情推定処理を実行する、請求項1に記載の情報処理装置。
  13. 前記データ格納部は、移動体の状況毎に、前記一の移動体の搭乗者の感情を推定するための感情推定アルゴリズムを格納し、
    前記感情推定部は、前記一の移動体の状況に対応する感情推定アルゴリズムを用いて、前記撮像部によって撮像された前記搭乗者の画像に基づく感情推定処理を実行することにより、前記搭乗者の感情を推定する、請求項12に記載の情報処理装置。
  14. 前記データ格納部は、移動体の状況毎に、前記一の移動体の搭乗者の感情を推定するための前記搭乗者のニュートラルな表情の画像を格納し、
    前記感情推定部は、前記撮像部によって撮像された前記搭乗者の画像と、前記一の移動体の状況に対応する前記搭乗者のニュートラルな表情の画像とを比較することにより、前記搭乗者の感情を推定する、請求項12に記載の情報処理装置。
  15. コンピュータを、請求項1から14のいずれか一項に記載の情報処理装置として機能させるためのプログラム。
JP2018246806A 2018-12-28 2018-12-28 情報処理装置及びプログラム Active JP7068156B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018246806A JP7068156B2 (ja) 2018-12-28 2018-12-28 情報処理装置及びプログラム
CN201911265422.0A CN111382665B (zh) 2018-12-28 2019-12-11 信息处理装置以及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018246806A JP7068156B2 (ja) 2018-12-28 2018-12-28 情報処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2020103704A true JP2020103704A (ja) 2020-07-09
JP7068156B2 JP7068156B2 (ja) 2022-05-16

Family

ID=71216954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018246806A Active JP7068156B2 (ja) 2018-12-28 2018-12-28 情報処理装置及びプログラム

Country Status (2)

Country Link
JP (1) JP7068156B2 (ja)
CN (1) CN111382665B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112168190B (zh) * 2020-10-23 2021-09-21 清华大学 驾驶压力实时监测系统及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019101472A (ja) * 2017-11-28 2019-06-24 トヨタ自動車株式会社 感情推定装置
JP2020103462A (ja) * 2018-12-26 2020-07-09 トヨタ紡織株式会社 感情推定装置、環境提供システム、車両、感情推定方法、および情報処理プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101710449A (zh) * 2009-12-04 2010-05-19 吉林大学 基于公交车gps数据的交通流运行状态识别方法
CN105303829A (zh) * 2015-09-11 2016-02-03 深圳市乐驰互联技术有限公司 汽车驾驶员情绪识别方法及装置
JP2017136922A (ja) * 2016-02-02 2017-08-10 富士通テン株式会社 車両制御装置、車載機器制御装置、地図情報生成装置、車両制御方法及び車載機器制御方法
DE102016208797A1 (de) * 2016-05-20 2017-11-23 Zf Friedrichshafen Ag Verfahren zur rechnergestützten Fahrdatenanalyse von Kraftfahrzeugen
US20180118218A1 (en) * 2016-10-27 2018-05-03 Ford Global Technologies, Llc Method and apparatus for vehicular adaptation to driver state
JP6639444B2 (ja) * 2017-06-07 2020-02-05 本田技研工業株式会社 情報提供装置及び情報提供方法
CN107316436B (zh) * 2017-07-31 2021-06-18 努比亚技术有限公司 危险驾驶状态处理方法、电子设备及存储介质
CN108429970B (zh) * 2018-05-28 2020-04-14 Oppo广东移动通信有限公司 音频播放方法、装置、终端、耳机及可读存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019101472A (ja) * 2017-11-28 2019-06-24 トヨタ自動車株式会社 感情推定装置
JP2020103462A (ja) * 2018-12-26 2020-07-09 トヨタ紡織株式会社 感情推定装置、環境提供システム、車両、感情推定方法、および情報処理プログラム

Also Published As

Publication number Publication date
CN111382665B (zh) 2024-03-01
JP7068156B2 (ja) 2022-05-16
CN111382665A (zh) 2020-07-07

Similar Documents

Publication Publication Date Title
JP2020109578A (ja) 情報処理装置及びプログラム
US20210268902A1 (en) Driving assistance apparatus and driving assistance method
CN107886045B (zh) 设施满意度计算装置
CN109427114A (zh) 信息处理方法、信息处理装置和信息处理程序
US20190294867A1 (en) Information provision device, and moving body
JP6552548B2 (ja) 地点提案装置及び地点提案方法
JP6999540B2 (ja) 情報処理装置及びプログラム
CN111413961B (zh) 控制装置以及计算机可读存储介质
JP7068156B2 (ja) 情報処理装置及びプログラム
JP2020095502A (ja) 情報処理装置及びプログラム
JP2020095538A (ja) 情報処理装置及びプログラム
JP7469467B2 (ja) デジタルヒューマンに基づく車室インタラクション方法、装置及び車両
JP7100575B2 (ja) 情報処理装置及びプログラム
CN114074669B (zh) 信息处理装置、信息处理方法以及计算机可读存储介质
CN114074669A (zh) 信息处理装置、信息处理方法以及程序
KR102613180B1 (ko) 차량 및 그 제어방법
KR102675289B1 (ko) 차량 및 그 제어 방법
JP2022030591A (ja) 編集装置、編集方法、およびプログラム
JP2022068567A (ja) 情報提示装置、情報提示方法及び情報提示プログラム
JP2024067451A (ja) 運転支援方法及び運転支援装置
CN116353487A (zh) 一种车内乘客互动系统
JPWO2017204195A1 (ja) Hmi制御装置、移動体、hmi制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220428

R150 Certificate of patent or registration of utility model

Ref document number: 7068156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150