JP6999540B2 - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP6999540B2
JP6999540B2 JP2018246829A JP2018246829A JP6999540B2 JP 6999540 B2 JP6999540 B2 JP 6999540B2 JP 2018246829 A JP2018246829 A JP 2018246829A JP 2018246829 A JP2018246829 A JP 2018246829A JP 6999540 B2 JP6999540 B2 JP 6999540B2
Authority
JP
Japan
Prior art keywords
passenger
image
face image
vehicle
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018246829A
Other languages
English (en)
Other versions
JP2020107172A (ja
Inventor
祥和 松尾
日淑 江▲崎▼
隆 岡田
大海 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2018246829A priority Critical patent/JP6999540B2/ja
Priority to CN201911264828.7A priority patent/CN111382664A/zh
Priority to US16/724,357 priority patent/US11443532B2/en
Publication of JP2020107172A publication Critical patent/JP2020107172A/ja
Application granted granted Critical
Publication of JP6999540B2 publication Critical patent/JP6999540B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/021Determination of steering angle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置及びプログラムに関する。
車両の搭乗者の顔画像に基づいて搭乗者の感情を推定する感情推定処理を実行する装置が知られていた(例えば、特許文献1参照)。また、人物のニュートラルな表情の顔画像を用いて人物の感情を推定する技術が知られていた(例えば、特許文献2参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2018-106530号公報
[特許文献2]特開2016-076259号公報
車両の搭乗者のニュートラルな表情の顔画像を効率的に取得可能な技術を提供することが望ましい。
本発明の第1の態様によれば、情報処理装置が提供される。情報処理装置は、一の移動体の状況を取得する状況取得部を備えてよい。情報処理装置は、一の移動体の状況が予め定められた状況であるときに一の移動体に搭載された撮像部によって撮像された一の移動体の搭乗者の顔画像を、搭乗者のニュートラルな表情の顔画像として格納する格納実行部を備えてよい。
上記情報処理装置は、上記撮像部によって撮像された上記一の移動体の搭乗者の顔画像と、上記格納実行部によって格納された上記搭乗者のニュートラルな表情の顔画像とを比較することによって上記搭乗者の感情を推定する感情推定部を備えてよい。上記状況取得部は、上記一の移動体が移動する経路の状況を取得してよく、上記格納実行部は、上記一の移動体が移動する経路の状況が予め定められた状況であるときに上記撮像部によって撮像された上記搭乗者の顔画像を、上記搭乗者のニュートラルな表情の顔画像として格納してよい。
上記一の移動体は自動車であってよく、上記状況取得部は、上記一の移動体が走行する道路の状況を取得してよい。上記格納実行部は、上記一の移動体の位置から上記一の移動体の移動方向の予め定められた距離の道路が直線道路であり、上記一の移動体が当該直線道路を走行しているときに上記撮像部によって撮像された上記搭乗者の顔画像を、上記搭乗者のニュートラルな表情の顔画像として格納してよい。上記格納実行部は、上記一の移動体の位置から上記一の移動体が予め定められた時間移動する場合に走行する道路が直線道路であり、上記一の移動体が当該直線道路を走行しているときに上記撮像部によって撮像された上記搭乗者の顔画像を、上記搭乗者のニュートラルな表情の顔画像として格納してよい。
上記格納実行部は、上記直線道路に他の車両が存在しないことを条件に、上記一の移動体が当該直線道路を走行しているときに上記撮像部によって撮像された上記搭乗者の顔画像を、上記搭乗者のニュートラルな表情の顔画像として格納してよい。上記格納実行部は、上記直線道路に信号機が存在しないことを条件に、上記一の移動体が当該直線道路を走行しているときに上記撮像部によって撮像された上記搭乗者の顔画像を、上記搭乗者のニュートラルな表情の顔画像として格納してよい。上記格納実行部は、上記直線道路に交差点が存在しないことを条件に、上記一の移動体が当該直線道路を走行しているときに上記撮像部によって撮像された上記搭乗者の顔画像を、上記搭乗者のニュートラルな表情の顔画像として格納してよい。
上記一の移動体は自動車であってよく、上記状況取得部は、上記一の移動体のハンドルの操作状況を取得してよく、上記格納実行部は、上記一の移動体のハンドルの操作状況が予め定められた状況であるときに上記撮像部によって撮像された上記搭乗者の顔画像を、上記搭乗者のニュートラルな表情の顔画像として格納してよい。上記格納実行部は、上記一の移動体のハンドルの回転角度が基準位置から予め定められた範囲内であるときに上記撮像部によって撮像された上記搭乗者の顔画像を、上記搭乗者のニュートラルな表情の顔画像として格納してよい。
本発明の第2の態様によれば、コンピュータを、上記情報処理装置として機能させるためのプログラムが提供される。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
本実施形態に係る車両100の一例を概略的に示す。 車両100の構成の一例を概略的に示す。 情報処理装置200の機能構成の一例を概略的に示す。 画像取得エリア420の一例を概略的に示す。 画像取得エリア440の一例を概略的に示す。 情報処理装置200による処理の流れの一例を概略的に示す。 情報処理装置200による処理の流れの一例を概略的に示す。 情報管理サーバ300の機能構成の一例を概略的に示す。 情報処理装置200として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、本実施形態に係る車両100の一例を概略的に示す。車両100は、搭乗者を乗せて移動する移動体の一例であってよい。車両100は、情報処理装置200を備えてよい。情報処理装置200は、車両100の搭乗者の感情を推定する感情推定処理機能を有してよい。
本実施形態において、車両100に搭乗している者を区別しない場合、搭乗者と記載し、運転している者としていない者とを区別する場合、前者を運転者52、後者を同乗者54と記載する。車両100が自動運転車である場合、運転者52は、運転席に座っている者であってよい。同乗者54は、助手席に座っている者であってよい。同乗者54は、後部座席に座っている者であってよい。
情報処理装置200は、搭乗者の画像を用いて搭乗者の感情を推定する感情推定処理を実行可能であってよい。情報処理装置200は、車両100が備える撮像部によって撮像された搭乗者の画像を取得する。撮像部は、車両100の車内の全体を撮像可能な1台のカメラ110を有してよい。情報処理装置200は、当該カメラ110から、運転者52の画像及び同乗者54の画像を取得してよい。
撮像部は、複数のカメラ110を有してもよい。情報処理装置200は、複数のカメラ110のそれぞれによって撮像された運転者52の画像及び同乗者54の画像を、当該複数のカメラ110から取得してよい。撮像部は、例えば、運転席及び助手席を撮像可能なカメラ110と、後部座席を撮像可能なカメラ110とを有する。撮像部は、運転席を撮像可能なカメラ110と、助手席を撮像可能なカメラ110とを有してもよい。撮像部は、後部座席の複数の同乗者54のそれぞれを撮像可能な複数のカメラ110を有してもよい。
情報処理装置200は、例えば、搭乗者のニュートラルな表情の顔画像を格納する。ニュートラルな表情とは、いわゆる素の表情であってよい。搭乗者の素の表情とは、例えば、搭乗者が何も意識していないときの表情である。情報処理装置200は、カメラ110によって撮像された搭乗者の顔画像と、ニュートラルな表情の顔画像とを比較することによって、搭乗者の感情を推定してよい。
情報処理装置200は、例えば、ニュートラルな表情との相違と、人間の感情パターンとを対応付けた対応付けデータを予め格納しておく。対応付けデータは、例えば、ニュートラルな表情に対して口角が上がっていることとポジティブな感情とを対応付け、ニュートラルな表情に対して口角が下がっていることとネガティブな感情とを対応付ける。対応付けデータは、ニュートラルな表情との相違の度合と、感情の度合とをさらに対応付けてよい。例えば、対応付けデータは、ニュートラルな表情に対して、より口角が上がっているほど、より高い度合を対応付ける。情報処理装置200は、カメラ110によって撮像された搭乗者の画像、ニュートラルな表情の顔画像、及び当該対応付けデータを用いて、感情のパターンのいずれかと、感情の度合とを特定することにより、搭乗者の感情の推定結果とする。
人間の感情のパターンとして、例えば、人間の感情を活性度(Arousal)と覚醒度(Valence)の2軸で表し、感情の度合いを原点からの距離で表すラッセル(Russell)の円環モデルに基づく感情のパターンを採用し得る。また、例えば、人間の感情を、8つの基本感情(喜び、信頼、恐れ、驚き、悲しみ、嫌悪、怒り、期待)と、隣り合う2つの感情の組み合わせによる応用感情とに分類したプルチック(Plutchik)の感情の輪に基づく感情のパターンを採用し得る。これらに限らず、本実施形態に係る情報処理装置200は、任意の感情のパターンを採用し得る。
搭乗者のニュートラルな表情の顔画像は、例えば、初期設定によって取得することができる。例えば、情報処理装置200は、搭乗者が車両100に搭乗したときに、搭乗者にニュートラルな表情をするよう促し、カメラ110によって撮像した搭乗者の顔画像を、搭乗者のニュートラルな表情の顔画像として格納する。しかし、この場合、搭乗者に初期設定を強いることになり、搭乗者に煩わしいと感じさせてしまう場合がある。また、搭乗者が初期設定を行わなかった場合に、搭乗者の表情による感情推定処理が実行できなくなってしまったり、推定精度が低下したりしてしまう場合がある。さらに、搭乗者に意識してニュートラルな表情をさせると不自然な表情となってしまう場合があり、結果として、推定精度が低下してしまう場合がある。
そこで、搭乗者のニュートラルな表情の顔画像を自動的に取得することが考えられる。例えば、搭乗者が車両100に搭乗したときや、車両100の走行中に搭乗者を撮像することによって、搭乗者の画像を取得する。しかし、例えば、カーブや高速道路を走行している時や、駐車時など特殊な状況で撮像してしまうと、素の状態ではない搭乗者の顔画像を取得してしまう可能性がある。例えば、駐車するために鏡を凝視する表情は、「怒」の感情を抱いているときの表情に近くなってしまう。
本実施形態に係る情報処理装置200は、車両100の状況を監視して、搭乗者が素の表情をしている可能性が高い状況になったときにカメラ110によって撮像された搭乗者の顔画像を、搭乗者のニュートラルな表情の顔画像として格納する。これにより、素の状態ではない搭乗者の顔画像を、ニュートラルな表情の顔画像として取得してしまう可能性を低減できる。搭乗者の顔画像を搭乗者のニュートラルな表情の顔画像として格納するとは、例えば、搭乗者の顔画像に、ニュートラルな表情の顔画像であることを示す情報を対応付けて格納することであってよい。また、搭乗者の顔画像を搭乗者のニュートラルな表情の顔画像として格納するとは、例えば、搭乗者のニュートラルな表情の顔画像を格納するための格納領域に、搭乗者の顔画像を格納することであってよい。
情報処理装置200は、ニュートラルな表情の顔画像として格納した搭乗者の顔画像を、他の車両100等と共有してもよい。例えば、情報処理装置200は、車両100に搭乗した搭乗者の識別情報を取得しておき、搭乗者の顔画像を格納するときに、当該搭乗者の識別情報を対応付けて格納する。そして、情報処理装置200は、識別情報が対応付けられている搭乗者の顔画像を、ネットワーク10を介して情報管理サーバ300に送信する。
搭乗者の識別情報は、例えば、情報管理サーバ300によって割り振られるユーザIDである。搭乗者を識別可能な識別情報は、例えば搭乗者が所有する携帯電話の番号等、搭乗者を識別することができれば、どのような情報であってもよい。
ネットワーク10は、任意のネットワークであってよい。例えば、ネットワーク10は、3G(3rd Generation)通信システム、LTE(Long Term Evolution)通信システム、及び5G(5th Generation)通信システム等の移動体通信システムを含んでよい。ネットワーク10は、インターネット、公衆無線LAN(Local Area Network)、及び任意の専用網等を含んでもよい。
情報管理サーバ300は、複数の情報処理装置200から収集した顔画像を識別情報毎に登録しておく。情報管理サーバ300は、例えば、識別情報を含む要求を受信した場合であって、当該識別情報に対応する顔画像が登録されている場合に、要求の送信元に対して、顔画像を送信する。要求の送信元は、例えば、車両100の情報処理装置200である。情報処理装置200は、例えば、情報処理装置200を搭載している車両100に搭乗者が搭乗したときに、当該搭乗者の識別情報を取得して、識別情報を含む要求を情報管理サーバ300に送信し、情報管理サーバ300から顔画像を受信する。要求の送信元は、人物の顔画像に基づく感情推定処理を実行する装置であれば、任意の装置であり得る。
図2は、車両100の構成の一例を概略的に示す。図2に示す各種構成は、車両100が備えるナビゲーションシステムの一部であってもよい。
車両100は、カメラ110を備える。図2では、車両100が、運転席162、助手席164、及び後部座席166のすべてを撮像可能なカメラ110を備える場合を例示する。図2において例示する画角111が示すように、カメラ110によれば、運転席162、助手席164、及び後部座席166の搭乗者を撮像可能である。図2におけるカメラ110の配置は例示であり、カメラ110は、運転席162、助手席164、及び後部座席166のすべてを撮像可能であれば任意の場所に配置されてよい。なお、車両100は、運転席162、助手席164、及び後部座席166のそれぞれを撮像する複数のカメラ110を備えてもよい。
車両100は、車両100の前方を撮像するカメラ112を備えてよい。図2におけるカメラ112の配置は例示であり、カメラ112は、車両100の前方を撮像することができれば任意の場所に配置されてよい。カメラ112は、いわゆるフロントカメラであってよい。また、カメラ112は、いわゆるドライブレコーダであってよい。
車両100は、マイク122を備える。図2では、車両100が、運転席162、助手席164、及び後部座席166のすべてに対応するマイク122を備える場合を例示する。図2におけるマイク122の配置は例示であり、マイク122は、運転席162、助手席164及び後部座席166のすべての搭乗者の音声を拾うことができれば、任意の場所に配置されてよい。車両100は、複数のマイク122を備えてもよい。複数のマイク122は、例えば、運転席162用のマイク122、助手席164用のマイク122、及び後部座席166用のマイク122を含む。
車両100は、スピーカ124を備える。図2では、車両100が、運転席162、助手席164、及び後部座席166のすべてに対応するスピーカ124を備える場合を例示する。図2におけるスピーカ124の配置は例示であり、スピーカ124は、任意の場所に配置されてよい。車両100は、複数のスピーカ124を備えてもよい。
車両100は、ディスプレイ130を備える。図2におけるディスプレイ130の配置は例示であり、ディスプレイ130は、主に運転席162及び助手席164から閲覧可能であれば、任意の場所に配置されてよい。ディスプレイ130は、タッチパネルディスプレイであってよい。車両100は、複数のディスプレイ130を備えてもよい。例えば、車両100は、運転席162及び助手席164用のディスプレイ130と、後部座席166用のディスプレイ130とを備える。
車両100は、無線通信アンテナ142を備える。無線通信アンテナ142は、ネットワーク10上の装置と通信するためのアンテナであってよい。車両100は、例えば、無線通信アンテナ142によって、移動体通信システムにおける無線基地局及び無線ルータ等を介してネットワーク10上の装置と通信する。なお、無線通信アンテナ142は、車車間通信及び路車間通信等を行うためのアンテナであってもよく、車両100は、車車間通信及び路車間通信等を介して、ネットワーク10上の装置と通信してもよい。
車両100は、GPS(Global Positioning System)アンテナ144を備える。GPSアンテナ144は、GPS衛星から位置測定用の電波を受信する。車両100は、GPSアンテナ144が受信する位置測定用の電波を用いて、車両100の現在地を測位してよい。車両100は、さらに自立航法による測位を組み合わせることによって、車両100の現在地を測位してもよい。車両100は、公知の任意の測位技術を用いて、車両100の現在地を測位してよい。
車両100は、車両100の搭乗者の生体情報を検知可能な不図示のセンサを備えてもよい。当該センサは、例えば、ハンドル150、運転席162、助手席164、及び後部座席166等に配置され、搭乗者の心拍、脈拍、発汗、血圧、及び体温等の生体情報を検知する。車両100は、搭乗者が身に着けているウェアラブルデバイスと通信接続する近距離無線通信部を備えていてもよく、ウェアラブルデバイスによって検知された搭乗者の生体情報を、当該ウェアラブルデバイスから受信してもよい。近距離無線通信部は、例えば、Bluetooth(登録商標)等によってウェアラブルデバイスと通信接続する。
上述の各種構成は、情報処理装置200が備えてもよい。情報処理装置200は、車両100が備えるナビゲーションシステムと一体であってよく、また、別体であってもよい。
図3は、情報処理装置200の機能構成の一例を概略的に示す。情報処理装置200は、画像取得部202、音声取得部204、センサ情報取得部206、状況取得部212、識別情報取得部214、格納実行部216、画像格納部218、画像送信部220、及び感情推定部230を備える。なお、情報処理装置200がこれらのすべての構成を備えることは必須とは限らない。
画像取得部202は、車両100の搭乗者の画像を取得する。画像取得部202は、車両100の撮像部によって撮像された搭乗者の画像を取得する。画像取得部202は、100の撮像部によって撮像される搭乗者の画像を継続的に取得してよい。
音声取得部204は、車両100の搭乗者の音声を取得する。音声取得部204は、車両100のマイク122から入力された搭乗者の音声を取得する。音声取得部204は、車両100のマイク122から搭乗者の音声を継続的に取得してよい。
センサ情報取得部206は、センサによって検知された車両100の搭乗者の生体情報を取得する。センサ情報取得部206は、例えば、ハンドル150、運転席162、助手席164、及び後部座席166等に配置されたセンサによって検知された搭乗者の心拍、脈拍、発汗、血圧、及び体温等の生体情報を、当該センサから取得する。また、センサ情報取得部206は、例えば、搭乗者が身に着けているウェアラブルデバイスによって検知された搭乗者の心拍、脈拍、発汗、血圧、及び体温等の生体情報を、当該ウェアラブルデバイスから取得する。
状況取得部212は、車両の状況を取得する。状況取得部212は、例えば、車両100のナビゲーションシステムによって管理されている車両100の状況を、ナビゲーションシステムから取得する。車両100のナビゲーションシステムは、車両100の位置情報、車両100が走行している周辺の地図データ及び道路データ、車両100の速度、加速度、ステアリングの操作状態、及びブレーキの操作状態等から、車両100の状況を判定してよい。車両100の状況の判定は、状況取得部212によって行われてもよい。状況取得部212は、車両100のナビゲーションシステムから受信した情報を用いて、車両100の状況を判定してよい。
車両100の状況は、例えば、車両100の走行速度に関する情報を含む。車両100の走行速度に関する情報は、例えば、車両100が通常速度で走行していること、車両100が加速していること、車両100が急加速したこと、急ブレーキが行われたこと、及び車両100が急停止したこと等を含む。
車両100の状況は、車両100の前方の状況を含む。状況取得部212は、カメラ112によって撮像された画像によって、車両100の前方の状況を取得してよい。状況取得部212は、車両100が移動する経路の状況を取得してよい。状況取得部212は、車両100が走行する道路の状況を取得してよい。例えば、状況取得部212は、車両100の前方の道路の種類を取得する。具体例として、状況取得部212は、車両100の前方の道路が直線道路であること、カーブであること、及びトンネルであること等を取得する。また、状況取得部212は、例えば、車両100の前方の道路が、起伏のない平坦な道路であること、及び起伏のある道路であること等を取得する。
また、状況取得部212は、例えば、車両100の前方に他の車両が存在すること又はしないことを取得する。また、状況取得部212は、例えば、車両100の前方に信号機が存在すること又はしないことを取得する。また、状況取得部212は、例えば、車両100の前方に交差点が存在すること又はしないことを取得する。また、状況取得部212は、例えば、車両100の前方のトンネルが存在すること又はしないことを取得する。
状況取得部212は、車両100が走行している周辺の地図データ及び道路データによって、車両100の前方の状況を取得してよい。状況取得部212は、例えば、車両100の前方の道路の種類を取得する。具体例として、状況取得部212は、車両100の前方の道路が直線道路であること、カーブであること、及びトンネルであること等を取得する。また、状況取得部212は、例えば、車両100の前方に信号機が存在すること又はしないことを取得する。また、状況取得部212は、例えば、車両100の前方に交差点が存在すること又はしないことを取得する。また、状況取得部212は、例えば、車両100の前方のトンネルが存在すること又はしないことを取得する。
状況取得部212は、車両100のナビゲーションシステムにおいて、車両100の目的地までのルートが設定されている場合、当該ルートに基づいて、車両100の前方の状況を取得してよい。例えば、状況取得部212は、当該ルートと、車両100の周辺の地図データ及び道路データとを用いて、車両100の前方の状況を取得する。
また、状況取得部212は、例えば、車両100のハンドル150の操作状況を取得する。状況取得部212は、ハンドル150の回転角度を取得してよい。状況取得部212は、ハンドル150の回転角度が基準位置から予め定められた範囲内であるか否かを取得してよい。予め定められた範囲は、任意に設定可能であってよく、また、変更可能であってよい。
識別情報取得部214は、車両100の搭乗者の識別情報を取得する。識別情報取得部214は、例えば、画像取得部202によって取得される搭乗者の顔画像に対して人物認識技術を適用することによって人物を特定し、特定した人物の識別情報を取得する。また、識別情報取得部214は、例えば、音声取得部204によって取得される搭乗者の音声に対して話者認識技術を適用することによって人物を特定し、特定した人物の識別情報を取得する。識別情報取得部214は、搭乗者が所有する携帯通信端末から、近距離無線通信を介して、搭乗者の識別情報を受信してもよい。
格納実行部216は、状況取得部212によって取得された車両100の状況が予め定められた状況であるときにカメラ110によって撮像された搭乗者の画像を、搭乗者のニュートラルな表情の顔画像として画像格納部218に格納する。格納実行部216は、例えば、車両100の状況が予め定められた状況であるときにカメラ110によって撮像された運転者52の画像を、運転者52のニュートラルな表情の顔画像として画像格納部218に格納する。格納実行部216は、状況取得部212によって取得された車両100の状況が予め定められた複数の状況のいずれかと一致したときにカメラ110によって撮像された搭乗者の画像を、搭乗者のニュートラルな表情の顔画像として画像格納部218に格納してよい。格納実行部216は、搭乗者の画像を画像格納部218に格納するときに、搭乗者の識別情報を対応付けて画像格納部218に格納してもよい。
予め定められた状況は、車両100が当該状況であるときに搭乗者の表情が素の表情である可能性が高い状況として登録された状況であってよい。例えば、車両100の前方が直線道路である場合、当該直線道路を走行するときの運転者52の表情は素の表情である可能性が高いので、車両100の前方が直線道路である状況が登録され得る。また、例えば、車両100の前方が直線道路であり、かつ、他の車両、信号機、交差点及びトンネル等が存在しない場合、当該直線道路を走行するときの運転者52の表情は素の表情である可能性が高いので、このような状況が登録され得る。また、例えば、車両100のハンドル150操作が行われておらず、ハンドル150の回転角度が基準位置から予め定められた範囲内である場合、運転者52の表情は素の表情である可能性が高く、このような状況が登録され得る。
格納実行部216は、例えば、車両100の位置から車両100の移動方向の予め定められた距離の道路が直線道路であり、車両100が当該直線道路を走行しているときにカメラ110によって撮像された搭乗者の顔画像を、搭乗者のニュートラルな表情の顔画像として画像格納部218に格納する。予め定められた距離は、任意に設定可能であってよく、また、変更可能であってよい。
格納実行部216は、例えば、車両100の位置から車両100が予め定められた時間移動する場合に走行する道路が直線道路であり、車両100が当該直線道路を走行しているときにカメラ110によって撮像された搭乗者の顔画像を、搭乗者のニュートラルな表情の顔画像として画像格納部218に格納する。予め定められた時間は、任意に設定可能であってよく、また、変更可能であってよい。格納実行部216は、例えば、車両100のルートと車両100の走行速度から、車両100の位置から車両100が予め定められた時間移動する場合に走行する道路が直線道路であるか否かを判定してよい。当該判定は、状況取得部212によって行われてもよい。
格納実行部216は、状況取得部212によって取得された車両100のハンドル150の操作状況が予め定められた状況であるときにカメラ110によって撮像された搭乗者の顔画像を、搭乗者のニュートラルな表情の顔画像として画像格納部218に格納してもよい。格納実行部216は、例えば、車両100のハンドル150の回転角度が基準位置から予め定められた範囲内であるときにカメラ110によって撮像された運転者52の顔画像を、運転者52のニュートラルな表情の顔画像として画像格納部218に格納する。これにより、運転者52がハンドル150を回転させておらず、素の表情をしている可能性が高いタイミングで撮像された運転者52の顔画像を、運転者52のニュートラルな表情の顔画像として格納することができる。
画像送信部220は、画像格納部218に対応付けて格納されている、識別情報が対応付けられた搭乗者の顔画像を、情報管理サーバ300に送信する。画像送信部220は、顔画像を、ネットワーク10を介して情報管理サーバ300に送信してよい。これにより、搭乗者のニュートラルな表情の顔画像を複数の車両100の間で共有することができ、複数の車両100全体における感情推定精度の向上に貢献することができる。
感情推定部230は、感情推定処理を実行して搭乗者の感情を推定する。感情推定部230は、画像取得部202によって取得された搭乗者の顔画像を用いた感情推定処理を実行してよい。感情推定部230は、画像取得部202によって取得された搭乗者の顔画像と、画像格納部218に格納されている当該搭乗者のニュートラルな表情の顔画像とを比較することによって、当該搭乗者の感情を推定してよい。また、感情推定部230は音声取得部204の音声情報とセンサ情報取得部206が取得したセンサ情報とを画像取得部202によって取得された搭乗者の顔画像と適宜組み合わせて、当該搭乗者の感情を推定してもよい。
車両100に搭乗する搭乗者の顔は、搭乗者の体調、髪の長さ、髪型、眼鏡をかけているか否か、及び日焼けしているか否か等の状態に応じて変わり得るので、搭乗者のニュートラルな表情の顔画像として、できるだけ新しいものを用いることが、感情推定処理を行う上で好ましい。本実施形態に係る情報処理装置200によれば、できる限り新しく、かつ、搭乗者が素の表情をしている可能性が高い顔画像を用いることができ、感情推定処理の推定精度の向上に貢献し得る。
図4は、画像取得エリア420の一例を概略的に示す。画像取得エリア420は、情報処理装置200が、カメラ110によって撮像された搭乗者の顔画像を搭乗者のニュートラルな表情の顔画像として格納するエリアの一例であってよい。
格納実行部216は、車両100の位置から車両100の移動方向の予め定められた距離410の道路が直線道路である場合に、当該直線道路を画像取得エリア420と判定してよい。格納実行部216は、車両100が画像取得エリア420を走行しているときにカメラ110によって撮像された搭乗者の顔画像を、当該搭乗者のニュートラルな表情の顔画像として画像格納部218に格納する。
格納実行部216は、車両100の位置から車両100の移動方向の予め定められた距離410の道路が直線道路である場合であっても、当該直線道路、すなわち、図4で例示する距離410の範囲内に、他の車両が存在する場合、当該直線道路を画像取得エリア420と判定しない。すなわち、格納実行部216は、当該直線道路に、他の車両が存在しないことを条件に、車両100が当該直線道路を走行しているときにカメラ110によって撮像された搭乗者の顔画像を、当該搭乗者のニュートラルな表情の顔画像として画像格納部218に格納する。例えば、他の車両の走行速度が低下して車両100との車間距離が短くなったり、他の車両が急停止したりすることによって、搭乗者の感情が変化する可能性がある。本実施形態に係る格納実行部216によれば、他の車両が存在する場合には、ニュートラルな表情の顔画像の取得を行わないようにできるので、素の表情ではない搭乗者の顔画像をニュートラルな表情の顔画像として取得してしまう可能性を低減することができる。
格納実行部216は、車両100の位置から車両100の移動方向の予め定められた距離410の道路が直線道路である場合であっても、当該直線道路、すなわち、図4で例示する距離410の範囲内に、信号機が存在する場合、当該直線道路を画像取得エリア420と判定しない。すなわち、格納実行部216は、当該直線道路に、信号機が存在しないことを条件に、車両100が当該直線道路を走行しているときにカメラ110によって撮像された搭乗者の顔画像を、当該搭乗者のニュートラルな表情の顔画像として画像格納部218に格納する。例えば、信号機が黄色に変わったりした場合、搭乗者が焦り等を感じて、搭乗者の感情が変化する可能性がある。本実施形態に係る格納実行部216によれば、信号機が存在する場合には、ニュートラルな表情の顔画像の取得を行わないようにできるので、素の表情ではない搭乗者の顔画像をニュートラルな表情の顔画像として取得してしまう可能性を低減することができる。
格納実行部216は、車両100の位置から車両100の移動方向の予め定められた距離410の道路が直線道路である場合であっても、当該直線道路、すなわち、図4で例示する距離410の範囲内に、交差点が存在する場合、当該直線道路を画像取得エリア420と判定しない。すなわち、格納実行部216は、当該直線道路に、交差点が存在しないことを条件に、車両100が当該直線道路を走行しているときにカメラ110によって撮像された搭乗者の顔画像を、当該搭乗者のニュートラルな表情の顔画像として画像格納部218に格納する。例えば、車両100が交差点に近づいた場合に、車両100の搭乗者の緊張が高まって、搭乗者の感情が変化する可能性がある。本実施形態に係る格納実行部216によれば、交差点が存在する場合には、ニュートラルな表情の顔画像の取得を行わないようにできるので、素の表情ではない搭乗者の顔画像をニュートラルな表情の顔画像として取得してしまう可能性を低減することができる。
図5は、画像取得エリア440の一例を概略的に示す。画像取得エリア440は、情報処理装置200が、カメラ110によって撮像された搭乗者の顔画像を搭乗者のニュートラルな表情の顔画像として格納するエリアの一例であってよい。
格納実行部216は、例えば、車両100のナビゲーションシステムにおいて目的地までのルート430が設定されている場合に、画像取得エリア440を事前に決定しておいてもよい。格納実行部216は、例えば、ルート430のうち、車両100のより近くに位置する直線道路を特定し、特定した直線道路を画像取得エリア440とする。格納実行部216は、ルート430のうち、車両100のより近くに位置し、かつ、信号機、交差点及びトンネルが存在しない直線道路を特定し、特定した直線道路を画像取得エリア440としてもよい。
格納実行部216は、車両100が画像取得エリア440を走行しているときにカメラ110によって撮像された搭乗者の顔画像を、搭乗者のニュートラルな表情の顔画像として画像格納部218に格納してよい。
このように、車両100により近い範囲で画像取得エリア440を決定することによって、搭乗者のニュートラルな表情の顔画像をより速く取得可能にでき、搭乗者のニュートラルな表情の顔画像をより速く搭乗者の感情推定に利用可能にできる。
図6は、情報処理装置200による処理の流れの一例を概略的に示す。図6は、格納実行部216が画像取得エリアを事前に特定して、画像取得エリア内において撮像された搭乗者の顔画像を格納する処理の流れを示す。
ステップ(ステップをSと省略して記載する場合がある。)102では、格納実行部216が、車両100のルートを示すルート情報を取得する。S104では、格納実行部216が、ルート情報が示すルートから、画像取得エリアを特定する。
S106では、格納実行部216が、車両100がS104において特定した画像取得エリア内に位置するか否かを判定する。位置すると判定した場合、S108に進む。S108では、格納実行部216が、カメラ110によって撮像された搭乗者の顔画像を、搭乗者のニュートラルな表情の顔画像として画像格納部218に格納する。
S110では、格納実行部216が、車両100が画像取得エリア外に位置するか否かを判定する。位置すると判定した場合、処理を終了する。
位置しないと判定した場合、S108に戻り、カメラ110によって撮像された搭乗者の顔画像を、搭乗者のニュートラルな表情の顔画像として画像格納部218に格納する。このように、格納実行部216は、車両100が画像取得エリア内を走行している間、搭乗者の顔画像を複数回に渡って画像格納部218に格納してよい。なお、画像取得エリア内に位置する間に搭乗者の顔画像を画像格納部218に格納する回数は、1回のみであってよく、また、予め定められた回数であってもよい。
図7は、情報処理装置200による処理の流れの一例を概略的に示す。図7は、情報処理装置200が、車両100が走行している間、車両100の状況を監視しながら、状況に応じて搭乗者の顔画像を格納する処理の流れを説明する。
S202では、状況取得部212が、車両100の前方の道路の状況を取得する。S204では、格納実行部216が、車両100の前方の道路が直線道路であるか否かを判定する。直線道路であると判定した場合、S206に進み、直線道路でないと判定した場合、S202に戻る。
S206では、格納実行部216が、車両100の前方に、画像の取得を阻害するものとして予め定められた阻害物が有るか否かを判定する。阻害物は、例えば、他の車両である。阻害物は、例えば、信号機である。阻害物は、例えば、交差点である。阻害物は、例えば、トンネルである。阻害物が有ると判定した場合、S202に戻り、無いと判定した場合、S208に進む。
S208では、格納実行部216が、カメラ110によって撮像された搭乗者の顔画像を、搭乗者のニュートラルな表情の顔画像として画像格納部218に格納する。S210では、格納実行部216が、搭乗者のニュートラルな表情の顔画像の格納数が、予め設定された数と等しいか否かを判定する。等しくないと判定した場合、S202に戻り、等しいと判定した場合、処理を終了する。
図8は、情報管理サーバ300の機能構成の一例を概略的に示す。情報管理サーバ300は、顔画像受信部302、顔画像格納部304、要求受信部306、及び顔画像送信部308を備える。
顔画像受信部302は、複数の情報処理装置200から、ネットワーク10を介して、識別情報が対応付けられた顔画像を受信する。顔画像格納部304は、顔画像受信部302が受信した顔画像を格納する。
要求受信部306は、識別情報を含む、顔画像の要求を受信する。顔画像送信部308は、要求受信部306が要求を受信した場合に、要求に含まれる識別情報に対応する顔画像が顔画像格納部304に格納されているか否かを判定し、格納されている場合に、要求の送信元に、対応付けられている顔画像を送信する。
図9は、情報処理装置200として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、上記実施形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、上記実施形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、上記実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。
本実施形態によるコンピュータ1200は、CPU1212、RAM1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、DVDドライブ1226、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。DVDドライブ1226は、DVD-ROMドライブ及びDVD-RAMドライブ等であってよい。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230及びタッチパネルのような入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。
CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。コンピュータ1200は、ディスプレイデバイス1218を備えていなくてもよく、その場合、グラフィックコントローラ1216は、イメージデータが外部のディスプレイデバイスに表示されるようにする。
通信インタフェース1222は、無線通信ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。DVDドライブ1226は、プログラム又はデータをDVD-ROM1227等から読み取り、記憶装置1224に提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。
ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、USBポート等を介して、様々な入出力ユニットを入出力コントローラ1220に接続してよい。
プログラムは、DVD-ROM1227又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、DVD-ROM1227、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
また、CPU1212は、記憶装置1224、DVDドライブ1226(DVD-ROM1227)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
上で説明したプログラム又はソフトウェアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
上記実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
上記実施形態では、移動体の例として車両100を挙げて説明したが、これに限らない。移動体は、例えば、電車、飛行機、及び船舶等であってよい。上記実施形態における予め定められた状況は、移動体の種類に応じて、移動体が当該状況であるときに移動体の搭乗者の表情が素の表情である可能性が高い状況として登録され得る。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10 ネットワーク、52 運転者、54 同乗者、100 車両、110 カメラ、111 画角、112 カメラ、122 マイク、124 スピーカ、130 ディスプレイ、142 無線通信アンテナ、144 GPSアンテナ、150 ハンドル、162 運転席、164 助手席、166 後部座席、200 情報処理装置、202 画像取得部、204 音声取得部、206 センサ情報取得部、212 状況取得部、214 識別情報取得部、216 格納実行部、218 画像格納部、220 画像送信部、230 感情推定部、300 情報管理サーバ、302 顔画像受信部、304 顔画像格納部、306 要求受信部、308 顔画像送信部、410 距離、420 画像取得エリア、430 ルート、440 画像取得エリア、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222 通信インタフェース、1224 記憶装置、1226 DVDドライブ、1227 DVD-ROM、1230 ROM、1240 入出力チップ

Claims (12)

  1. 一の移動体の状況を取得する状況取得部と、
    前記一の移動体の状況が予め定められた状況であるときに前記一の移動体に搭載された撮像部によって撮像された前記一の移動体の搭乗者の顔画像を、前記搭乗者のニュートラルな表情の顔画像として格納する格納実行部と
    を備える情報処理装置。
  2. 前記撮像部によって撮像された前記一の移動体の搭乗者の顔画像と、前記格納実行部によって格納された前記搭乗者のニュートラルな表情の顔画像とを比較することによって前記搭乗者の感情を推定する感情推定部
    を備える、請求項1に記載の情報処理装置。
  3. 前記状況取得部は、前記一の移動体が移動する経路の状況を取得し、
    前記格納実行部は、前記一の移動体が移動する経路の状況が予め定められた状況であるときに前記撮像部によって撮像された前記搭乗者の顔画像を、前記搭乗者のニュートラルな表情の顔画像として格納する、請求項1又は2に記載の情報処理装置。
  4. 前記一の移動体は自動車であり、
    前記状況取得部は、前記一の移動体が走行する道路の状況を取得する、請求項3に記載の情報処理装置。
  5. 前記格納実行部は、前記一の移動体の位置から前記一の移動体の移動方向の予め定められた距離の道路が直線道路であり、前記一の移動体が当該直線道路を走行しているときに前記撮像部によって撮像された前記搭乗者の顔画像を、前記搭乗者のニュートラルな表情の顔画像として格納する、請求項4に記載の情報処理装置。
  6. 前記格納実行部は、前記一の移動体の位置から前記一の移動体が予め定められた時間移動する場合に走行する道路が直線道路であり、前記一の移動体が当該直線道路を走行しているときに前記撮像部によって撮像された前記搭乗者の顔画像を、前記搭乗者のニュートラルな表情の顔画像として格納する、請求項4に記載の情報処理装置。
  7. 前記格納実行部は、前記直線道路に他の車両が存在しないことを条件に、前記一の移動体が当該直線道路を走行しているときに前記撮像部によって撮像された前記搭乗者の顔画像を、前記搭乗者のニュートラルな表情の顔画像として格納する、請求項5又は6に記載の情報処理装置。
  8. 前記格納実行部は、前記直線道路に信号機が存在しないことを条件に、前記一の移動体が当該直線道路を走行しているときに前記撮像部によって撮像された前記搭乗者の顔画像を、前記搭乗者のニュートラルな表情の顔画像として格納する、請求項5から7のいずれか一項に記載の情報処理装置。
  9. 前記格納実行部は、前記直線道路に交差点が存在しないことを条件に、前記一の移動体が当該直線道路を走行しているときに前記撮像部によって撮像された前記搭乗者の顔画像を、前記搭乗者のニュートラルな表情の顔画像として格納する、請求項5から8のいずれか一項に記載の情報処理装置。
  10. 前記一の移動体は自動車であり、
    前記状況取得部は、前記一の移動体のハンドルの操作状況を取得し、
    前記格納実行部は、前記一の移動体のハンドルの操作状況が予め定められた状況であるときに前記撮像部によって撮像された前記搭乗者の顔画像を、前記搭乗者のニュートラルな表情の顔画像として格納する、請求項2に記載の情報処理装置。
  11. 前記格納実行部は、前記一の移動体のハンドルの回転角度が基準位置から予め定められた範囲内であるときに前記撮像部によって撮像された前記搭乗者の顔画像を、前記搭乗者のニュートラルな表情の顔画像として格納する、請求項10に記載の情報処理装置。
  12. コンピュータを、請求項1から11のいずれか一項に記載の情報処理装置として機能させるためのプログラム。
JP2018246829A 2018-12-28 2018-12-28 情報処理装置及びプログラム Active JP6999540B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018246829A JP6999540B2 (ja) 2018-12-28 2018-12-28 情報処理装置及びプログラム
CN201911264828.7A CN111382664A (zh) 2018-12-28 2019-12-11 信息处理装置以及计算机可读存储介质
US16/724,357 US11443532B2 (en) 2018-12-28 2019-12-22 Capturing neutral face expression apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018246829A JP6999540B2 (ja) 2018-12-28 2018-12-28 情報処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2020107172A JP2020107172A (ja) 2020-07-09
JP6999540B2 true JP6999540B2 (ja) 2022-01-18

Family

ID=71122227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018246829A Active JP6999540B2 (ja) 2018-12-28 2018-12-28 情報処理装置及びプログラム

Country Status (3)

Country Link
US (1) US11443532B2 (ja)
JP (1) JP6999540B2 (ja)
CN (1) CN111382664A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7359084B2 (ja) * 2020-06-23 2023-10-11 トヨタ自動車株式会社 感情推定装置、感情推定方法及びプログラム
JP2023042216A (ja) * 2021-09-14 2023-03-27 株式会社東海理化電機製作所 通信装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008062852A (ja) 2006-09-08 2008-03-21 Fujitsu Ten Ltd 車両制御装置
JP2008068664A (ja) 2006-09-12 2008-03-27 Fujitsu Ten Ltd 車両制御装置および車両制御方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8369608B2 (en) * 2009-06-22 2013-02-05 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for detecting drowsy facial expressions of vehicle drivers under changing illumination conditions
US11017250B2 (en) * 2010-06-07 2021-05-25 Affectiva, Inc. Vehicle manipulation using convolutional image processing
CN203415006U (zh) * 2013-07-10 2014-01-29 山东恒宇电子有限公司 行车记录仪
JP5995931B2 (ja) * 2014-09-12 2016-09-21 アイシン精機株式会社 駐車支援装置、駐車支援方法及び制御プログラム
CN105894734A (zh) * 2015-10-19 2016-08-24 乐卡汽车智能科技(北京)有限公司 用于交通工具的疲劳驾驶预警方法及系统
JP6563798B2 (ja) * 2015-12-17 2019-08-21 大学共同利用機関法人自然科学研究機構 視覚認知支援システムおよび視認対象物の検出システム
JP6109288B2 (ja) 2015-12-21 2017-04-05 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN107564130A (zh) * 2016-07-02 2018-01-09 上海卓易科技股份有限公司 行车记录方法及行车记录仪、移动终端
US10318831B2 (en) * 2016-07-21 2019-06-11 Gestigon Gmbh Method and system for monitoring the status of the driver of a vehicle
US10759424B2 (en) * 2016-08-16 2020-09-01 Honda Motor Co., Ltd. Vehicle data selection system for modifying automated driving functionalities and method thereof
CN106373395A (zh) * 2016-09-20 2017-02-01 三星电子(中国)研发中心 行车事故的监控方法和装置
US10583709B2 (en) * 2016-11-11 2020-03-10 International Business Machines Corporation Facilitating personalized vehicle occupant comfort
US10745009B2 (en) * 2016-12-21 2020-08-18 Samsung Electronics Co., Ltd. Electronic apparatus for determining a dangerous situation of a vehicle and method of operating the same
JP6513069B2 (ja) * 2016-12-27 2019-05-15 本田技研工業株式会社 運転支援装置および運転支援方法
CN108237976A (zh) * 2016-12-27 2018-07-03 广州市联奥信息科技有限公司 具备情绪表达能力的交互行车系统及方法
US20180215392A1 (en) * 2017-02-02 2018-08-02 Denso Ten Limited Vehicle control device and vehicle control method
US10558740B1 (en) * 2017-03-13 2020-02-11 Intuit Inc. Serving different versions of a user interface in response to user emotional state
CN106875696A (zh) * 2017-04-13 2017-06-20 深圳市赛亿科技开发有限公司 自动识别交通违规违法行为的系统及其方法和行车记录仪
CN110753933A (zh) * 2017-04-14 2020-02-04 脸谱公司 反应性简档肖像
EP3622434A1 (en) * 2017-05-11 2020-03-18 Kodak Alaris Inc. Method for identifying, ordering, and presenting images according to expressions
CN107554483A (zh) * 2017-08-29 2018-01-09 湖北科技学院 一种基于人脸表情动作识别的车辆防盗系统
EP3480729B1 (en) * 2017-11-07 2023-03-01 Tata Consultancy Services Limited System and method for face position tracking and alerting user
CN107705808B (zh) * 2017-11-20 2020-12-25 合光正锦(盘锦)机器人技术有限公司 一种基于面部特征与语音特征的情绪识别方法
JP6996253B2 (ja) * 2017-11-24 2022-01-17 トヨタ自動車株式会社 車両の制御装置
CN109710055A (zh) * 2017-12-15 2019-05-03 蔚来汽车有限公司 车载智能交互系统和车载交互终端的交互控制方法
US10729378B2 (en) * 2018-11-30 2020-08-04 Toyota Motor North America, Inc. Systems and methods of detecting problematic health situations

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008062852A (ja) 2006-09-08 2008-03-21 Fujitsu Ten Ltd 車両制御装置
JP2008068664A (ja) 2006-09-12 2008-03-27 Fujitsu Ten Ltd 車両制御装置および車両制御方法

Also Published As

Publication number Publication date
CN111382664A (zh) 2020-07-07
US20200210735A1 (en) 2020-07-02
US11443532B2 (en) 2022-09-13
JP2020107172A (ja) 2020-07-09

Similar Documents

Publication Publication Date Title
JP2019501435A (ja) 自律走行車の走行を決定するための周辺環境を構築する方法及びシステム
KR20210035296A (ko) 이례적인 차량 이벤트를 감지 및 기록하기 위한 시스템 및 방법
US11232350B2 (en) System and method for providing road user classification training using a vehicle communications network
JP2020109578A (ja) 情報処理装置及びプログラム
CN107886045B (zh) 设施满意度计算装置
JP2019501812A (ja) 自律走行車のステアリング率の動的調整
US20230005169A1 (en) Lidar point selection using image segmentation
US11423589B1 (en) Vehicular telematic systems and methods for generating interactive animated guided user interfaces
US11460309B2 (en) Control apparatus, control method, and storage medium storing program
JP6999540B2 (ja) 情報処理装置及びプログラム
JP7068156B2 (ja) 情報処理装置及びプログラム
US11580777B2 (en) Control apparatus and computer-readable storage medium
CN111611330B (zh) 信息处理系统、程序、以及控制方法
JP2020095502A (ja) 情報処理装置及びプログラム
US20200193197A1 (en) Information processing apparatus and computer-readable storage medium
US11564073B2 (en) System and method for emotion detection and inter-vehicle communication
JP7100575B2 (ja) 情報処理装置及びプログラム
JPWO2021149594A5 (ja)
US11694377B2 (en) Editing device and editing method
JP7375705B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2024083316A (ja) クラウドベースの車両情報を提供するための電子装置及び方法
JP2016110406A (ja) 走行支援装置
JP2023084966A (ja) 情報記録支援方法、情報記録支援装置、情報記録支援プログラム、及び、情報記録支援システム
CN115631550A (zh) 一种用户反馈的方法和系统
CN115534822A (zh) 控制显示的方法、装置和移动载体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211222

R150 Certificate of patent or registration of utility model

Ref document number: 6999540

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150