JP2022032139A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2022032139A
JP2022032139A JP2020135652A JP2020135652A JP2022032139A JP 2022032139 A JP2022032139 A JP 2022032139A JP 2020135652 A JP2020135652 A JP 2020135652A JP 2020135652 A JP2020135652 A JP 2020135652A JP 2022032139 A JP2022032139 A JP 2022032139A
Authority
JP
Japan
Prior art keywords
vehicle
user
information
driver
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020135652A
Other languages
English (en)
Other versions
JP7375705B2 (ja
Inventor
裕子 水野
Yuko Mizuno
伸 桜田
Shin Sakurada
和也 西村
Kazuya Nishimura
拓巳 福永
Takumi Fukunaga
宗太郎 金子
Sotaro Kaneko
里桜 皆川
Rio Minagawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020135652A priority Critical patent/JP7375705B2/ja
Priority to CN202110597458.XA priority patent/CN114074669A/zh
Priority to US17/366,491 priority patent/US20220048519A1/en
Publication of JP2022032139A publication Critical patent/JP2022032139A/ja
Application granted granted Critical
Publication of JP7375705B2 publication Critical patent/JP7375705B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/12Lateral speed
    • B60W2520/125Lateral acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/01Occupants other than the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/10Accelerator pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/12Brake pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Human Resources & Organizations (AREA)
  • Operations Research (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Quality & Reliability (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】他者が運転する車両への同乗を希望するユーザに対して、より好適な運転者をマッチングする。【解決手段】情報処理装置おいて、第1運転者による第1車両に対する各操作に伴う第1車両の挙動に関する第1情報と、第1車両に同乗中のユーザの感情の変化に関する第2情報と、が取得される。また、第1情報と第2情報とを紐づけることで、第1車両の各挙動に伴うユーザの感情の変化が抽出される。そして、抽出されたユーザの感情の変化に基づいて、第1運転者の運転に対するユーザの評価が判定される。さらに、判定された評価が記憶部に記憶される。【選択図】図7

Description

本開示は、車両への同乗を希望するユーザに対して、車両の運転者をマッチングするための技術に関する。
特許文献1には、車両において乗員の感情に対応するための制御装置に関する技術が開示されている。特許文献1に開示の技術では、制御装置は感情推定手段を備えている。感情推定手段は、車両における複数の乗員それぞれの感情を生体情報に基づいて推定する。そして、乗員の感情が不快方向へ移行することを抑制するように、制御手段が、乗員の運転動作を誘導する運転動作誘導部を制御する。
特開2016-137203号公報
本開示は、他者が運転する車両への同乗を希望するユーザに対して、より好適な運転者をマッチングすること可能とする技術を提供することを目的とする。
本開示の第1の態様に係る情報処理装置は、
第1運転者による第1車両に対する各操作に伴う前記第1車両の挙動に関する第1情報を取得することと、
前記第1車両に同乗中のユーザの感情の変化に関する第2情報を取得することと、
前記第1情報と前記第2情報とを紐づけることで、前記第1車両の各挙動に伴う前記ユ
ーザの感情の変化を抽出することと、
前記第1車両の各挙動に伴う前記ユーザの感情の変化に基づいて、前記第1運転者の運転に対する前記ユーザの評価を判定することと、
前記評価を記憶部に記憶することと、
を実行する制御部を備える。
本開示によれば、他者が運転する車両への同乗を希望するユーザに対して、より好適な運転者をマッチングすることができる。
実施形態に係る情報管理システムの概略構成を示す図である。 車載装置および管理サーバそれぞれの機能構成の一例を概略的に示すブロック図である。 第1情報のテーブル構成の一例を示す図である。 第2情報のテーブル構成の一例を示す図である。 ユーザ情報データベースに格納されたユーザ情報のテーブル構成の一例を示す図である。 運転者情報データベースに格納された運転者情報のテーブル構成の一例を示す図である。 車両に同乗したユーザの運転者の運転に対する評価を判定するための処理を示すフローチャートである。 図7に示すフローのS105において実行される評価判定の処理を示すフローチャートである。 ライドシェアサービスの利用を希望するユーザに対して運転者をマッチングするための処理を示すフローチャートである。 実施形態の変形例に係る、車載装置および管理サーバそれぞれの機能構成の一例を概略的に示すブロック図である。
本開示の第1の態様に係る情報処理装置においては、制御部が、第1情報および第2情報を取得する。ここで、第1情報は、第1運転者による第1車両に対する各操作に伴う第1車両の挙動に関する情報である。例えば、第1運転者による第1車両に対する各操作を検出する各種センサおよび第1車両の各挙動を検出する各種センサが第1車両に設けられている場合がある。この場合、制御部は、各種センサのセンサデータに基づいて第1情報を取得することができる。
また、第2情報は、第1車両に同乗中のユーザの感情の変化に関する情報である。例えば、ユーザの感情の変化は、ユーザの生体情報、または、ユーザから発せられる音声に反映される。そこで、制御部は、第1車両に同乗中のユーザについての生体情報に基づいて第2情報を取得してもよい。また、制御部は、第1車両の車内においてユーザから発せられる音声に基づいて第2情報を取得してもよい。
そして、制御部は、第1情報と第2情報とを紐づけることで、第1車両の各挙動に伴う
ユーザの感情の変化を抽出する。ここで、第1車両の車内におけるユーザの感情の変化は、必ずしも、第1車両の挙動に起因して生じるものではない。そこで、第1情報と第2情
報とに基づいて、第1運転者が第1車両に対してある操作を行うことによって第1車両がある挙動を示したタイミングにおけるユーザの感情の変化を抽出する。これにより、第1車両の各挙動に伴うユーザの感情の変化を抽出することができる。
さらに、制御部は、抽出された、第1車両の各挙動に伴うユーザの感情の変化に基づいて、第1運転者の運転に対するユーザの評価を判定する。例えば、第1車両の挙動に伴って、ユーザにおいてポジティブな感情の変化またはネガティブな感情の変化が生じる場合がある。このとき、第1車両に同乗中にユーザに生じたポジティブな感情の変化およびネガティブな感情の変化を総合的に評価することで、第1運転者の運転に対するユーザの評価が高評価であるまたは低評価であることを判定することができる。
そして、制御部は、判定された第1運転者の運転に対するユーザの評価を記憶部に記憶する。これにより、情報処理装置は、第1車両に同乗していたユーザが、どのような運転を行う運転者を好むか、または、どのような運転を行う運転者を好まないか、を把握することができる。そのため、同ユーザが次回車両への同乗を希望した際に、該ユーザが好む運転を行う運転者をマッチングすることが可能となる。
以下、本開示の具体的な実施形態について図面に基づいて説明する。本実施形態に記載されている構成部品の寸法、材質、形状、および、その相対配置等は、特に記載がない限りは本開示の技術的範囲をそれらのみに限定する趣旨のものではない。
<実施形態>
(システムの概略)
ここでは、本開示に係る情報処理装置、情報処理方法、およびプログラムを、ライドシェアサービスにおける情報管理システムに適用した場合の実施形態について説明する。こ
こで、ライドシェアサービスは、他者が運転する車両に同乗することを希望するユーザに対して、運転者および車両を提供するサービスである。なお、本開示に係る情報処理装置、情報処理方法、およびプログラムを、タクシーの配車サービスにおける情報管理システムに適用することもできる。
図1は、本実施形態に係る情報管理システムの概略構成を示す図である。情報管理システム1は、ライドシェアサービスを利用するユーザについての情報を管理するためのシステムである。情報管理システム1は、車両10に搭載された車載装置100と、管理サーバ200と、を含んで構成される。車両10は、ライドシェアサービスに用いられる車両である。図1において、車両10は運転者Aによって運転されている。また、車両10には、ライドシェアサービスのユーザであるユーザBが同乗している。管理サーバ200は、ライドシェアサービスの利用を希望する各ユーザからの依頼を受け付けるサーバ装置である。
情報管理システム1においては、車載装置100と管理サーバ200とがネットワークによって相互に接続される。このネットワークには、例えば、インターネット等の世界規模の公衆通信網であるWAN(Wide Area Network)、または携帯電話等の電話通信網が採用されてもよい。管理サーバ200は一般的なコンピュータを含んで構成される。管理サーバ200を構成するコンピュータは、プロセッサ201、主記憶部202、補助記憶部203、および通信インターフェース(通信I/F)204を有する。
ここで、プロセッサ201は、例えば、CPU(Central Processing Unit)またはD
SP(Digital Signal Processor)である。主記憶部202は、例えば、RAM(Random
Access Memory)である。補助記憶部203は、例えば、ROM(Read Only Memory)、HDD(Hard Disk Drive)、またはフラッシュメモリである。また、補助記憶部203
は、リムーバブルメディア(可搬記録媒体)を含んでもよい。ここで、リムーバブルメディアは、例えば、USBメモリ、SDカード、または、CD-ROM、DVDディスク、若しくはブルーレイディスクのようなディスク記録媒体である。通信I/F204は、例えば、LAN(Local Area Network)インターフェースボード、または無線通信のための無線通信回路である。
補助記憶部203には、オペレーティングシステム(OS)、各種プログラム、および各種情報テーブル等が格納されている。そして、プロセッサ201が、補助記憶部203に記憶されたプログラムを主記憶部202にロードして実行することによって、後述するような、ライドシェアサービスにおいてユーザに運転者をマッチングするための様々な処理が実現される。ただし、管理サーバ200における一部または全部の機能はASICやFPGAのようなハードウェア回路によって実現されてもよい。なお、管理サーバ200は、必ずしも単一の物理的構成によって実現される必要はなく、互いに連携する複数台のコンピュータによって構成されてもよい。
管理サーバ200は、車両10に搭載された車載装置100から、第1センサ情報、第2センサ情報、および画像情報を受信する。ここで、第1センサ情報および第2センサ情報は、車両10に設けられた各種センサから出力されたセンサデータを含む情報である。第1センサ情報は、車両10に対して運転者Aが行う各種の操作を検出する各センサから出力されたセンサデータを含んでいる。第2センサ情報は、車両10の各種の挙動を検出する各センサから出力されたセンサデータを含んでいる。また、画像情報は、車両10の車内において撮影されたユーザBの画像を含む情報である。
そして、管理サーバ200においては、第1センサ情報および第2センサ情報に基づい
て、運転者Aによる車両10に対する各操作に伴う車両10の挙動に関する情報である第1情報が取得される。また、管理サーバ200においては、画像情報に基づいて、車両10に同乗中のユーザBの感情の変化に関する情報である第2情報が取得される。ここで、ユーザBの感情は、運転者Aが運転する車両10の挙動に伴って、ネガティブに変化したり、また、ポジティブに変化したりする場合がある。つまり、運転者Aによる車両10の運転をユーザBが気に入れば、ユーザBの感情はポジティブに変化すると考えられる。一方で、運転者Aによる車両10の運転をユーザBが気に入らなければ、ユーザBの感情はネガティブに変化すると考えられる。
そこで、管理サーバ200においては、第1情報および第2情報に基づいて、運転者Aの運転に対するユーザBの評価が判定される。また、判定された評価が、補助記憶部203に構築される後述のデータベースに記憶される。そして、管理サーバ200は、次回、ユーザBからのライドシェアサービスの利用依頼を受け付けたときに、データベースに記憶されている、運転者Aの運転に対するユーザBの評価に基づいて、ユーザBに対してマッチングする運転者を決定する。
(機能構成)
次に、本実施形態に係る情報管理システム1を構成する車載装置100、および管理サーバ200それぞれの機能構成について図2に基づいて説明する。図2は、本実施形態に係る、車載装置100、および管理サーバ200それぞれの機能構成の一例を概略的に示すブロック図である。なお、以下においては、図1と同様、車両10に運転者AとユーザBとが乗車していることを前提として、各機能構成を説明する。
(車載装置)
車両10には、車載装置100の他に、車内カメラ130、第1センサ群140、および第2センサ群150が搭載されている。車内カメラ130は、車両10内において、同乗しているユーザBの画像を撮影するカメラである。車内カメラ130が撮影する画像は動画であってもよく、また静止画であってもよい。
第1センサ群140は、運転者Aが車両10に対して行う各種の操作を検出するための複数のセンサによって構成される。第1センサ群140に含まれるセンサは、例えば、アクセルポジションセンサ、ブレーキポジションセンサ、およびステアリングセンサである。アクセルポジションセンサによって、運転者Aによる、車両10を発進または加速させるための操作を検出することができる。また、ブレーキポジションセンサによって、運転者Aによる、車両10を停止または減速させるための操作を検出することができる。また、ステアリングセンサによって、運転者Aによる、車両10を右折または左折させるための操作を検出することができる。なお、第1センサ群140に含まれるセンサによって検出される運転者Aによる各種の操作はこれらの操作に限られるものではない。例えば、車線変更またはカーブ走行等の操作が検出されてもよい。
また、第2センサ群150は、車両10に生じる各種の挙動を検出するための複数のセンサによって構成される。第2センサ群150に含まれるセンサは、例えば、車両10における3軸方向(前後方向、横方向、上下方向)それぞれの加速度を検出する加速度センサ、および、車両10における角加速度を検出するヨーレートセンサである。
また、車載装置100は、車両搭載用のコンピュータを含んで構成される。車載装置100は、通信部110、および制御部120を備えている。通信部110は車載装置100をネットワークに接続する機能を有する。通信部110は、車載装置100を構成するコンピュータが有する通信インターフェースによって実現することができる。制御部120は、車載装置100を制御するための演算処理を行う機能を有する。制御部120は、
車載装置100を構成するコンピュータが有するプロセッサによって実現することができる。
車両10においては、車内カメラ130、第1センサ群140、および第2センサ群150と、車載装置100との間で、所定の車内ネットワークを介して通信が行われる。そして、制御部120は、車内カメラ130から、撮影された画像を含む画像情報を受信する。また、制御部120は、第1センサ群140および第2センサ150から、各センサによって検出されたセンサデータを受信する。
さらに、制御部120は、車内カメラ130から受信した画像情報を、通信部110を用いて管理サーバ200に送信する処理を行う。また、制御部120は、第1センサ群140から受信したセンサデータを含む第1センサ情報を、通信部110を用いて管理サーバ200に送信する処理を行う。また、制御部120は、第2センサ群150から受信したセンサデータを含む第2センサ情報を、通信部110を用いて管理サーバ200に送信する処理を行う。
このとき、車載装置100から管理サーバ200に送信される情報には、車両10を特定するための識別情報である車両IDが付されている。さらに、車載装置100から管理サーバ200に送信される画像情報には、車内カメラ130によって画像が撮影されたタイミングを示す日時情報を付されている。また、車載装置100から管理サーバ200に送信される第1センサ情報および第2センサ情報には、各センサによってセンサデータが検出されたタイミングを示す日時情報が付されている。
(管理サーバ)
管理サーバ200は、通信部210、制御部220、ユーザ情報データベース(ユーザ情報DB)230、および運転者情報データベース(運転者情報DB)240を備えている。通信部210は、管理サーバ200をネットワークに接続する機能を有する。通信部210は通信I/F204によって実現される。制御部220は、管理サーバ200を制御するための演算処理を行う機能を有する。制御部220はプロセッサ201によって実現される。
そして、制御部220は、車載装置100から送信された、画像情報、第1センサ情報、および第2センサ情報を、通信部210を用いて受信する処理を行う。また、制御部220は、ライドシェアサービスの利用を希望する各ユーザからの利用依頼に関する依頼情報を、通信部210を用いて受信する処理も行う。なお、依頼情報は、ライドシェアサービスの利用を希望するユーザ(すなわち、車両10に乗車する前のユーザ)に関連する端末から送信されてもよい。
また、制御部220は、第1取得部221、第2取得部222、評価部223、受付部224、およびマッチング部225を含んでいる。ここで、第1取得部221は、車載装置100から受信した、第1センサ情報と第2センサ情報とを紐づけることで、運転者Aによる車両10に対する各操作に伴う車両10の挙動に関する第1情報を取得する機能を有する。
上述したように、第1センサ情報および第2センサ情報それぞれには、車両10に設けられた各センサによってセンサデータが検出されたタイミングを示す日時情報が付されている。そのため、運転者Aが車両10を運転している時のあるタイミングにおける、第1センサ情報に含まれるセンサデータが示す運転者Aによる車両10に対する操作と、第2センサ情報に含まれるセンサデータが示す車両10の挙動と、を紐づけることができる。そして、これらを紐づけることで、第1取得部221は、運転者Aが車両10に対してあ
る操作を行ったときに生じた車両10の挙動を把握することができる。
図3は、第1取得部221によって取得される第1情報のテーブル構成の一例を示す図である。図3に示す第1情報は、車両IDフィールド、運転者IDフィールド、日時フィールド、操作フィールド、および車両挙動フィールドを有する。車両IDフィールドには、第1センサ情報および第2センサ情報の送信元である車載装置100を搭載した車両10を特定する車両IDが入力される。運転者IDフィールドには、車両10を運転している運転者Aを特定するための識別番号である運転者IDが入力される。なお、管理サーバ200においては、車両10の車両IDと、車両10を運転している運転者Aの運転者IDと、が互いに関連付いた状態でデータベースに記憶されている。そのため、車載装置100から受信した第1センサ情報および第2センサ情報に付された車両IDに対応する運転者IDをデータベースから取得することができる。
日時フィールドには、第1センサ情報および第2センサ情報に付されていた、各操作および各挙動に対応する日時情報が入力される。操作フィールドには、第1センサ情報に含まれるセンサデータが示す、運転者Aによる車両10に対する操作が入力される。例えば、操作フィールドには、運転者Aによる車両10に対する操作として、発進、停止、加速、減速、左折、または右折等が入力される。車両挙動フィールドには、第2センサ情報に含まれるセンサデータが示す車両10の挙動が入力される。例えば、車両挙動フィールドには、車両10の挙動として、車両10において生じた加速度の方向および大きさ、または、車両10において生じたヨーレートの方向および大きさ等が入力される。このように、第1情報のテーブルでは、日時フィールドに入力された各タイミング(日時)において、運転者Aが車両10に対して行った操作と、発生した車両10の挙動とが、互いに対応付けられた状態で入力されている。
また、第2取得部222は、車載装置100から受信した画像情報に基づいて、車両10に同乗中のユーザBの感情の変化に関する第2情報を取得する機能を有する。より詳細には、第2取得部222は、車載装置100から受信した画像情報に含まれるユーザBの画像からユーザBの生体情報を検出する。ここで検出される生体情報は、ユーザBの感情の変化を示す情報であり、例えば、ユーザBの表情、ユーザBの視線、ユーザBの姿勢、またはユーザBの身体の動きを示す情報である。また、ユーザBの画像から、ユーザBの感情の変化を示す生体情報として、体温、呼吸数、または脈拍等の情報が検出されてもよい。なお、車両10に同乗中のユーザBが、ユーザBの生体情報を検出するウェアラブルセンサを身に付けていてもよい。この場合、管理サーバ200は、ウェアラブルセンサによって検出されたユーザBの感情の変化を示す生体情報を受信してもよい。
さらに、第2取得部222は、ユーザBの画像から検出されたユーザBの生体情報に基づいてユーザBの感情の変化を導出する。つまり、車両10に同乗中のユーザBの感情がポジティブまたはネガティブに変化した場合、この感情の変化はユーザBの生体情報に反映される。そして、このようなユーザの感情の変化がユーザBの生体情報に基づいて第2取得部222によって導出される。このとき、第2取得部222は、ユーザBの感情がポジティブに変化したときのポジティブ度合い、または、ユーザBの感情がネガティブに変化したときのネガティブ度合い、を示す数値である感情レベルを導出する。
図4は、第2取得部222によって取得される第2情報のテーブル構成の一例を示す図である。図4に示す第2情報は、車両IDフィールド、ユーザIDフィールド、日時フィールド、および感情レベルフィールドを有する。車両IDフィールドには、画像情報の送信元である車載装置100を搭載した車両10を特定する車両IDが入力される。ユーザIDフィールドには、車両10に同乗しているユーザBを特定するための識別番号であるユーザIDが入力される。なお、管理サーバ200においては、車両10の車両IDと、
車両10に同乗しているユーザBのユーザIDと、が互いに関連付いた状態でデータベースに記憶されている。そのため、車載装置100から受信した画像情報に付された車両IDに対応するユーザIDをデータベースから取得することができる。
日時フィールドには、画像情報に付されていた、画像に対応する日時情報が入力される。感情レベルフィールドには、画像情報に基づいて導出された感情レベルが入力される。例えば、図4に示すテーブルにおいては、ポジティブな感情の変化を示す感情レベルはプラス(+)の数値として入力されており、ネガティブな感情の変化を示す感情レベルはマイナス(-)の数値として入力されている。このように、第2情報のテーブルでは、日時
フィールドに入力された各タイミング(日時)における、ユーザBの感情の変化を示す感情レベルが入力されている。
なお、上記の通り、本実施形態においては、ユーザBの画像から検出されるユーザBについての生体情報に基づいて、ユーザBの感情の変化に関する第2情報が取得される。しかしながら、第2情報の取得方法はこれに限られるものではない。例えば、車両10の車内にマイクが設けられている場合、車両10に同乗中のユーザBから発せられる音声を検出することができる。そして、ユーザBの感情の変化は、ユーザBから発せられる音声に反映される場合がある。そこで、車両10の車内においてユーザBから発せられた音声を含む音声情報が車載装置100から管理サーバ200に送信されてもよい。そして、管理サーバ200において、音声情報に含まれるユーザの音声に基づいて第2情報が取得されてもよい。また、ユーザBの画像とユーザBから発せられた音声との両方を用いて、第2情報が取得されてもよい。また、車両10に同乗中のユーザBの感情の変化を、その他の周知の方法によって検出することで、第2情報が取得されてもよい。
また、評価部223は、第1取得部221によって取得された第1情報、および、第2取得部222によって取得された第2情報に基づいて、運転者Aの運転に対するユーザBの評価を判定する。ここで、車両10に同乗中のユーザBにおける感情の変化は、必ずしも、車両10の挙動に起因して生じるものではない。例えば、車両10の車内から見えた車外の状況または風景等に起因して、ユーザBの感情がポジティブに変化したりネガティブに変化したりする場合もある。そこで、評価部223は、先ず、第1情報と第2情報とを紐づけることで、車両10の各挙動に伴うユーザBの感情の変化を抽出する。
上述したように、第1情報においては、日時フィールドに入力された各タイミング(日時)における、運転者Aによる車両10に対する操作および車両10の挙動が示されている。また、第2情報においては、日時フィールドに入力された各タイミング(日時)における、ユーザBの感情レベルが示されている。そして、あるタイミングで、運転者Aが車両10を操作することで車両10がある挙動を示したときに、同タイミングでユーザBの感情がポジティブまたはネガティブに変化している場合、そのユーザBの感情の変化は車両10の挙動に伴って生じたと捉えることができる。そこで、評価部223は、第1情報
と第2情報とに基づいて、運転者Aによるある操作によって車両10がある挙動を示したタイミングにおけるユーザBの感情の変化を抽出する。例えば、図4に示す第2情報においては、日時フィールドに入力されたタイミングが「d1t1」、「d1t3」、「d1t5」、および「d1t6」である時の感情レベルが、ネガティブな感情の変化を示すマイナスの数値となっている。そして、図3に示す第1情報においては、日時フィールドに入力されたタイミングが「d1t1」、「d1t3」、「d1t5」、および「d1t6」である時に運転者Aによる操作によって生じた車両10の挙動が示されている。そのため、これらのタイミングにおける感情レベルが、各タイミングにおける車両10の挙動に伴うユーザBの感情の変化として抽出される。
さらに、評価部223は、抽出された、車両10の各挙動に伴うユーザBの感情の変化
に基づいて、運転者Aの運転に対するユーザBの評価を判定する。より詳細には、評価部223は、車両10の各挙動に伴うユーザBの感情の変化を示す各感情レベルに基づいて、運転者Aの運転に対するユーザBの評価を示す評価値を算出する。このとき、評価部223は、複数のタイミングにおける、ユーザBのポジティブまたはネガティブな感情の変化(感情レベル)を総合的に評価することで評価値を算出する。このときの評価値の具体的な算出方法としては、周知のどのような方法を適用してもよい。そして、評価部223は、算出した評価値を所定の閾値と比較することで、運転者Aの運転に対するユーザBの評価を判定する。
制御部220は、評価部223によって判定された運転者Aの運転に対するユーザBの評価をユーザ情報としてユーザ情報DB230に記憶する。図5は、ユーザ情報DB230に格納されたユーザ情報のテーブル構成の一例を示す図である。図5に示すように、ユーザ情報DB230に格納されたユーザ情報は、ユーザIDフィールド、運転者IDフィールド、および評価フィールドを有する。ユーザIDフィールドには、ライドシェアサービスを利用した各ユーザのユーザIDが入力される。運転者IDフィールドには、各ユーザの評価対象となった運転者(すなわち、各ユーザが同乗した車両それぞれの運転者)の運転者IDが入力される。評価フィールドには、各運転者の運転に対するユーザの評価が入力される。つまり、評価部223によって判定された運転者Aの運転に対するユーザBの評価は、ユーザBのユーザIDとともに、ユーザ情報DB230に格納される。なお、ユーザ情報DB230は、プロセッサ201によってデータベース管理システム(Database Management System)のプログラムが実行されることで補助記憶部203に構築される。
また、受付部224は、通信部210によって受信された、ライドシェアサービスの利用を希望するユーザからの利用依頼に関する依頼情報を取得する機能を有する。また、マッチング部225は、受付部224によってユーザからの依頼情報が受け付けられた場合、ユーザに対して運転者をマッチングする機能を有する。ここで、運転者情報DB240には、ライドシェアサービスにおいてユーザに対してマッチングされ得る複数の運転者それぞれについての運転者情報が格納されている。そして、マッチング部225は、運転者情報DB240に運転者情報が格納されている複数の運転者の中から、ユーザに対してマッチングする運転者を選択する。なお、運転者情報DB240は補助記憶部203に構築されている。
図6は、運転者情報DB240に格納された運転者情報のテーブル構成の一例を示す図である。図6に示すように、運転者情報DB240に格納された運転者情報は、運転者IDフィールド、運転特性フィールド、およびスケジュールフィールドを有する。運転者IDフィールドには、各運転者の運転者IDが入力される。運転特性フィールドには、各運転者の運転特性に関する情報が入力される。ここで、運転特性に関する情報とは、各運転者が車両10を運転する際の運転の特徴を示す情報である。各運転者の運転特性に関する情報は、各運転者が車両10を運転したときに車載装置100から受信した第1情報および第2情報に基づいて取得されてもよい。スケジュールフィールドには、各運転者のスケジュールに関する情報が入力される。
例えば、車両10に乗車していたユーザBが、次回ライドシェアサービスの利用を希望した場合、ユーザBからの依頼情報が受付部224によって取得される。そして、マッチング部225によって、ユーザBに対してマッチングする運転者が決定される。このときに、マッチング部225は、ユーザ情報DB230に格納されているユーザBについてのユーザ情報に基づいて、ユーザBに対してマッチングする運転者を決定する。なお、マッチング部225による、ユーザに対してマッチングする運転者の決定方法の詳細については後述する。
(評価判定処理)
次に、管理サーバ200において行われる情報処理のフローについて、図7から図9に基づいて説明する。図7および図8は、車両10に同乗したユーザの運転者の運転に対する評価を判定するための処理を示すフローチャートである。本フローは、制御部220によって実行される。
本フローでは、先ずS101において、車両10の車載装置100から受信した第1センサ情報および第2センサ情報に基づいて第1情報が取得される。次に、S102において、車両10の車載装置100から受信した画像情報に基づいて第2情報が取得される。次に、S103において、第1情報と第2情報とを紐づけることで、車両10の各挙動に伴うユーザの感情の変化が抽出される。ここでは、上述したように、車両10の各挙動に伴うユーザの感情の変化として、各挙動に対応する感情レベルが抽出される。次に、S104において、S103で抽出された、車両10の各挙動に伴うユーザの感情の変化を示す各感情レベルに基づいて、運転者の運転に対するユーザの評価を示す評価値Reが算出される。ここでは、運転者の運転に対するユーザの評価が高いほど、評価値Reは大きい値として算出される。
次に、S105において、S104で算出された評価値Reを用いて、運転者の運転に対するユーザの評価が判定される。図8は、図7に示すフローのS105において実行される評価判定の処理を示すフローチャートである。本フローでは、先ずS201において、評価値Reが第1閾値Re1より大きいか否かが判別される。S201において肯定判定された場合、次に、S202において、運転者の運転に対するユーザの評価は高評価であると判定される。一方、S201において否定判定された場合、次に、S203の処理が実行される。
S203においては、評価値Reが第2閾値Re2より小さいか否かが判別される。ここで、第2閾値Re2は第1閾値Re1よりも小さい値である。S203において肯定判定された場合、次に、S204において、運転者の運転に対するユーザの評価は低評価であると判定される。一方、S203において否定判定された場合、次に、S203において、運転者の運転に対するユーザの評価は標準評価であると判定される。
ここで、図7に示すフローの説明に戻る。S105において運転者の運転に対するユーザの評価が判定されると、次にS106の処理が実行される。S106においては、S105で判定された評価がユーザ情報としてユーザIDおよび運転者IDとともにユーザ情報DB230に記憶される。なお、制御部220は、車両10の1トリップ毎に評価値Reを算出し、複数トリップ分の評価値Reを総合して、運転者の運転に対するユーザの評価を判定してもよい。また、制御部220は、運転者の運転に対するユーザの評価を、車両10が走行した領域の種別(例えば、高速道路エリア、市街地エリア、または郊外エリア)と対応付けてユーザ情報DB230に記憶してもよい。
(マッチング処理)
図9は、ライドシェアサービスの利用を希望するユーザに対して運転者をマッチングするための処理を示すフローチャートである。本フローも、図7および図8に示すフローと同様、制御部220によって実行される。
本フローでは、先ずS301において、ライドシェアサービスの利用を希望するユーザからの依頼情報が取得される。なお、依頼情報にはユーザIDが付されている。次に、S302において、依頼情報に付されたユーザIDに対応するユーザ情報がユーザ情報DB230から抽出される。つまり、依頼情報に付されたユーザIDに対応するユーザがライ
ドシェアサービスを過去に利用したときにユーザ情報DB230に記憶されたユーザ情報がユーザ情報DB230から抽出される。
次に、S302で抽出されたユーザ情報に含まれる運転者、すなわち、過去にユーザに対してマッチングされた運転者に対する評価に基づいて、今回ユーザに対してマッチングする運転者が決定される。このとき、上述したように、運転者情報DB240に運転者情報が格納されている複数の運転者の中から、ユーザに対してマッチングする運転者が決定される。例えば、ユーザ情報において、運転者Xの評価が高評価である場合、運転者情報DB240における運転者Xについての運転者情報が探索される。さらに、運転者Xについての運転者情報に含まれるスケジュールに基づいて、今回もユーザに対して運転者Xをマッチングすることが可能か否かが判別される。そして、運転者Xをマッチングすることが可能であると判定されれば、ユーザに対してマッチングする運転者が運転者Xに決定される。一方で、運転者Xをマッチングすることがスケジュール上不可能であると判定されれば、運転者情報DB240において運転者Xと運転特性が類似している他の運転者Yについての運転者情報が探索される。そして、他の運転者Yをマッチングすることがスケジュール上可能であれば、ユーザに対してマッチングする運転者が運転者Yに決定される。また、ユーザ情報において、運転者Zの評価が低評価である場合は、ユーザに対してマッチングする運転者が、運転者Zおよび運転者Zと運転特性が類似する運転者以外の運転者に決定される。
上記のように、本実施形態に係る情報管理システム1によれば、管理サーバ200は、車両10に同乗したユーザが、どのような運転を行う運転者を好むか、または、どのような運転を行う運転者を好まないか、を把握することができる。そのため、同ユーザが次回ライドシェアサービスの利用を希望した際に、該ユーザが好む運転を行う運転者をマッチングすることが可能となる。
なお、本実施形態においては、管理サーバ200では、運転者の運転に対するユーザの評価を判定するために、車両の各挙動に伴うユーザの感情の変化が感情レベルとして取得されるとともに、取得された各感情レベルに基づいて評価値が算出される。しかしながら、必ずしも、このような評価値が算出される必要はない。つまり、車両の各挙動に伴うユーザの感情の変化に基づいて、運転者の運転をユーザが気に入ったか否かが判別できるのであれば、評価部223において評価値を用いない他の手法で評価判定が行われてもよい。
(変形例)
以下、本実施形態の変形例について説明する。図10は、本変形例に係る、車載装置100、および管理サーバ200それぞれの機能構成の一例を概略的に示すブロック図である。
図10に示すように、本変形例では、車両10に、車内カメラ130に加えて、車外カメラ160が設けられている。車外カメラ160は、車両10の周囲の画像を撮影するカメラである。車外カメラ160が撮影する画像は動画であってもよく、また静止画であってもよい。そして、制御部120は、車外カメラ160から、撮影された画像を含む画像情報を受信する。また、制御部120は、車内カメラ130によって撮影された画像を含む画像情報に加え、車外カメラ160によって撮影された画像を含む画像情報(以下、「第2画像情報」と称する場合もある。)を、通信部110を用いて管理サーバ200に送信する処理を行う。このとき、車載装置100から管理サーバ200に送信される第2画像情報には、車外カメラ160によって画像が撮影されたタイミングを示す日時情報を付されている。
また、本変形例では、管理サーバ200における制御部220が、第1取得部221、第2取得部222、評価部223、受付部224、およびマッチング部225に加え、状況取得部226を含んでいる。状況取得部226は、車載装置100から受信した第2画像情報に基づいて、車両10の周囲の状況に関する状況情報を取得する機能を有する。この状況情報には、車載装置100から受信した第2画像情報に付されていて日時情報が含まれている。したがって、制御部220は、状況情報に含まれる各状況が生じたタイミングを把握することができる。
ここで、例えば、ユーザが同乗している車両10の進行方向に人または物体が飛び出してきた場合、運転者は、飛び出してきた人または物体との衝突を回避するための操作(回避操作)を車両10に対して行う必要がある。このときの回避操作に伴って生じた車両10の挙動に起因して、ユーザの感情が大きく変化することが考えられる。しかしながら、このような場合の回避操作は運転者の運転特性との関連性が低い。そのため、回避操作に伴う車両10の挙動に起因するユーザの感情の変化が、運転者の運転に対する評価に影響してしまうと、正確な評価が困難となる虞がある。
そこで、本変形例では、管理サーバ200において、制御部220が、状況取得部226によって取得された状況情報に含まれる各状況が所定の条件を満たしているか否かを判別する。ここで、所定の条件は、上記の回避操作のように、運転者の運転特性との関連性が低い操作を運転者が行う必要が生じていると判断できる状況である。上記のように、所定の条件には、車両10の進行方向に人または物体が飛び出してきたことが含まれる。
そして、状況情報に所定の条件を満たす状況が含まれていた場合、運転者の運転に対するユーザの評価を判定する際に、車両10の周囲においてそのような状況が生じた時に検出された情報を、第1情報および第2情報から除外する。つまり、第1情報および第2情
報において、日時フィールドに入力された日時情報が所定の条件を満たす状況が生じた時の日時に該当している情報が除外される。
これにより、所定の条件を満たす状況が生じた時のユーザの感情の変化を示す感情レベルが評価値Reの算出に用いられないことになる。そのため、運転者の運転特性との関連性が低い操作に伴う車両10の挙動に起因するユーザの感情の変化が、運転者の運転に対するユーザの評価の判定に影響を与えることを抑制することができる。したがって、運転者の運転に対するユーザの評価をより正確に判定することが可能となる。
<その他の実施形態>
上記の実施形態はあくまでも一例であって、本開示はその要旨を逸脱しない範囲内で適宜変更して実施し得る。また、本開示において説明した処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
また、1つの装置が行うものとして説明した処理が、複数の装置によって分担して実行されてもよい。あるいは、異なる装置が行うものとして説明した処理が、1つの装置によって実行されても構わない。コンピュータシステムにおいて、各機能をどのようなハードウェア構成(サーバ構成)によって実現するかは柔軟に変更可能である。
本開示は、上記の実施形態で説明した機能を実装したコンピュータプログラムをコンピュータに供給し、当該コンピュータが有する1つ以上のプロセッサがプログラムを読み出して実行することによっても実現可能である。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な非一時的なコンピュータ可読記憶媒体によってコンピュータに提供されてもよいし、ネットワークを介してコンピュータに提供されてもよい。非一時的なコンピュータ可読記憶媒体は、例えば、磁気ディスク(フロッピー(登録
商標)ディスク、ハードディスクドライブ(HDD)等)、光ディスク(CD-ROM、DVDディスク、ブルーレイディスク等)など任意のタイプのディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気カード、フラッシュメモリ、または光学式カードのような、電子的命令を格納するために適した任意のタイプの媒体を含む。
1・・・情報管理システム
10・・車両
100・・車載装置
110,210・・通信部
120,220・・制御部
200・・管理サーバ
221・・第1取得部
222・・第2取得部
223・・評価部
224・・受付部
225・・マッチング部
226・・状況取得部
230・・ユーザ情報データベース
240・・運転者情報データベース

Claims (20)

  1. 第1運転者による第1車両に対する各操作に伴う前記第1車両の挙動に関する第1情報を取得することと、
    前記第1車両に同乗中のユーザの感情の変化に関する第2情報を取得することと、
    前記第1情報と前記第2情報とを紐づけることで、前記第1車両の各挙動に伴う前記ユ
    ーザの感情の変化を抽出することと、
    前記第1車両の各挙動に伴う前記ユーザの感情の変化に基づいて、前記第1運転者の運転に対する前記ユーザの評価を判定することと、
    前記評価を記憶部に記憶することと、
    を実行する制御部を備える情報処理装置。
  2. 前記制御部が、
    前記第1車両の各挙動に伴う前記ユーザの感情の変化に基づいて前記第1運転者の運転に対する評価を示す評価値を算出することをさらに実行し、
    前記評価値を所定の閾値と比較することで、前記第1運転者の運転に対する前記ユーザの評価を判定する、
    請求項1に記載の情報処理装置。
  3. 前記制御部が、
    前記第1車両の周囲の状況に関する情報を取得することをさらに実行し、
    前記第1情報および前記第2情報から、前記第1車両の周囲の状況が所定の条件を満たした時に検出された情報を除外する、
    請求項1または2に記載の情報処理装置。
  4. 前記所定の条件に、前記第1車両の進行方向に人または物体が飛び出してきたことが含まれる、
    請求項3に記載の情報処理装置。
  5. 前記制御部が、
    前記記憶部に記憶された前記評価に基づいて、前記ユーザに対して次回マッチングする運転者を決定することをさらに実行する、
    請求項1から4のいずれか一項に記載の情報処理装置。
  6. 前記記憶部に、前記第1運転者を含む複数の運転者それぞれの運転特性に関する情報が記憶されており、
    前記記憶部に記憶された、前記第1運転者の運転に対する前記ユーザの前記評価が所定の評価である場合、前記制御部が、前記ユーザに対して次回マッチングする運転者を、前記第1運転者、または、前記複数の運転者の中で前記第1運転者と運転特性が類似する運転者に決定する、
    請求項5に記載の情報処理装置。
  7. 前記制御部が、
    前記ユーザについての生体情報に基づいて前記第2情報を取得する、
    請求項1から6のいずれか一項に記載の情報処理装置。
  8. 前記第1車両の車内において撮影された前記ユーザの画像から前記ユーザについての生体情報が検出される、
    請求項7に記載の情報処理装置。
  9. 前記制御部が、
    前記第1車両の車内において前記ユーザから発せられる音声に基づいて前記第2情報を取得する、
    請求項1から8のいずれか一項に記載の情報処理装置。
  10. コンピュータが実行する情報処理方法であって、
    第1運転者による第1車両に対する各操作に伴う前記第1車両の挙動に関する第1情報を取得することと、
    前記第1車両に同乗中のユーザの感情の変化に関する第2情報を取得することと、
    前記第1情報と前記第2情報とを紐づけることで、前記第1車両の各挙動に伴う前記ユ
    ーザの感情の変化を抽出することと、
    前記第1車両の各挙動に伴う前記ユーザの感情の変化に基づいて、前記第1運転者の運転に対する前記ユーザの評価を判定することと、
    前記評価を前記コンピュータの記憶部に記憶することと、
    を含む情報処理方法。
  11. 前記第1車両の各挙動に伴う前記ユーザの感情の変化に基づいて前記第1運転者の運転に対する評価を示す評価値を算出することをさらに含み、
    前記評価値を所定の閾値と比較することで、前記第1運転者の運転に対する前記ユーザの評価を判定する、
    請求項10に記載の情報処理方法。
  12. 前記第1車両の周囲の状況に関する情報を取得することをさらに含み、
    前記第1情報および前記第2情報から、前記第1車両の周囲の状況が所定の条件を満たした時に検出された情報を除外する、
    請求項10または11に記載の情報処理方法。
  13. 前記所定の条件に、前記第1車両の進行方向に人または物体が飛び出してきたことが含まれる、
    請求項12に記載の情報処理方法。
  14. 前記記憶部に記憶された前記評価に基づいて、前記ユーザに対して次回マッチングする運転者を決定することをさらに含む、
    請求項10から13のいずれか一項に記載の情報処理方法。
  15. 前記記憶部に、前記第1運転者を含む複数の運転者それぞれの運転特性に関する情報が記憶されており、
    前記記憶部に記憶された、前記第1運転者の運転に対する前記ユーザの前記評価が所定の評価である場合、前記ユーザに対して次回マッチングする運転者を、前記第1運転者、または、前記複数の運転者の中で前記第1運転者と運転特性が類似する運転者に決定する、
    請求項14に記載の情報処理方法。
  16. 前記ユーザについての生体情報に基づいて前記第2情報を取得する、
    請求項10から15のいずれか一項に記載の情報処理方法。
  17. 前記第1車両の車内において撮影された前記ユーザの画像から前記ユーザについての生体情報が検出される、
    請求項16に記載の情報処理方法。
  18. 前記第1車両の車内において前記ユーザから発せられる音声に基づいて前記第2情報を取得する、
    請求項10から15のいずれか一項に記載の情報処理方法。
  19. コンピュータに情報処理方法を実行させるプログラムであって、
    前記情報処理方法は、
    第1運転者による第1車両に対する各操作に伴う前記第1車両の挙動に関する第1情報を取得することと、
    前記第1車両に同乗中のユーザの感情の変化に関する第2情報を取得することと、
    前記第1情報と前記第2情報とを紐づけることで、前記第1車両の各挙動に伴う前記ユ
    ーザの感情の変化を抽出することと、
    前記第1車両の各挙動に伴う前記ユーザの感情の変化に基づいて、前記第1運転者の運転に対する前記ユーザの評価を判定することと、
    前記評価を前記コンピュータの記憶部に記憶することと、
    を含むプログラム。
  20. 前記情報処理方法は、
    前記記憶部に記憶された前記評価に基づいて、前記ユーザに対して次回マッチングする運転者を決定することをさらに含む、
    請求項19に記載のプログラム。
JP2020135652A 2020-08-11 2020-08-11 情報処理装置、情報処理方法、およびプログラム Active JP7375705B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020135652A JP7375705B2 (ja) 2020-08-11 2020-08-11 情報処理装置、情報処理方法、およびプログラム
CN202110597458.XA CN114074669A (zh) 2020-08-11 2021-05-31 信息处理装置、信息处理方法以及程序
US17/366,491 US20220048519A1 (en) 2020-08-11 2021-07-02 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020135652A JP7375705B2 (ja) 2020-08-11 2020-08-11 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2022032139A true JP2022032139A (ja) 2022-02-25
JP7375705B2 JP7375705B2 (ja) 2023-11-08

Family

ID=80223862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020135652A Active JP7375705B2 (ja) 2020-08-11 2020-08-11 情報処理装置、情報処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US20220048519A1 (ja)
JP (1) JP7375705B2 (ja)
CN (1) CN114074669A (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014029580A (ja) * 2012-07-31 2014-02-13 Nikko Data Service Co Ltd タクシー配車アプリケーションシステム及び配車プログラム
JP2017211703A (ja) * 2016-05-23 2017-11-30 三菱電機株式会社 運転評価装置および運転評価プログラム
JP2019012481A (ja) * 2017-06-30 2019-01-24 株式会社デンソーテン 運転診断装置および運転診断方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4682714B2 (ja) * 2005-06-14 2011-05-11 トヨタ自動車株式会社 対話システム
JP2016007989A (ja) * 2014-06-26 2016-01-18 クラリオン株式会社 車両制御装置及び車両制御方法
JP6613290B2 (ja) * 2017-11-28 2019-11-27 株式会社Subaru 運転アドバイス装置及び運転アドバイス方法
DE102018210026A1 (de) * 2018-06-20 2019-12-24 Robert Bosch Gmbh Verfahren zur Steuerung eines autonom fahrenden Personenbeförderungsfahrzeugs
JP7091871B2 (ja) 2018-06-21 2022-06-28 トヨタ自動車株式会社 情報処理装置、情報処理システム、情報処理方法、及び、情報処理プログラム
JP7172321B2 (ja) * 2018-09-12 2022-11-16 トヨタ自動車株式会社 運転評価装置、運転評価システム、運転評価方法、及び運転評価用コンピュータプログラム
CN109572705B (zh) * 2018-12-11 2020-07-28 武汉格罗夫氢能汽车有限公司 一种驾驶员情绪管理方法、设备及存储设备
JP7068156B2 (ja) * 2018-12-28 2022-05-16 本田技研工業株式会社 情報処理装置及びプログラム
US11133002B2 (en) * 2019-01-14 2021-09-28 Ford Global Technologies, Llc Systems and methods of real-time vehicle-based analytics and uses thereof
US20200334479A1 (en) * 2019-04-19 2020-10-22 GM Global Technology Operations LLC System and method for measuring passenger satisfaction in a vehicle
US11548518B2 (en) * 2019-06-28 2023-01-10 Woven Planet North America, Inc. Subjective route comfort modeling and prediction
US10875537B1 (en) * 2019-07-12 2020-12-29 Toyota Research Institute, Inc. Systems and methods for monitoring the situational awareness of a vehicle according to reactions of a vehicle occupant
CN110458604A (zh) * 2019-07-17 2019-11-15 中国第一汽车股份有限公司 一种网约司机评价方法、装置、设备及存储介质
CN111199205B (zh) * 2019-12-30 2023-10-31 科大讯飞股份有限公司 车载语音交互体验评估方法、装置、设备及存储介质
US11148673B2 (en) * 2020-01-13 2021-10-19 Pony Ai Inc. Vehicle operator awareness detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014029580A (ja) * 2012-07-31 2014-02-13 Nikko Data Service Co Ltd タクシー配車アプリケーションシステム及び配車プログラム
JP2017211703A (ja) * 2016-05-23 2017-11-30 三菱電機株式会社 運転評価装置および運転評価プログラム
JP2019012481A (ja) * 2017-06-30 2019-01-24 株式会社デンソーテン 運転診断装置および運転診断方法

Also Published As

Publication number Publication date
JP7375705B2 (ja) 2023-11-08
US20220048519A1 (en) 2022-02-17
CN114074669A (zh) 2022-02-22

Similar Documents

Publication Publication Date Title
US10133917B2 (en) Lifelog recording system
CN108099918B (zh) 用于确定自主车辆的命令延迟的方法
JP2017136922A (ja) 車両制御装置、車載機器制御装置、地図情報生成装置、車両制御方法及び車載機器制御方法
US9383214B2 (en) Navigation system with device recognition mechanism and method of operation thereof
US10929652B2 (en) Information providing device and information providing method
JP2019527813A (ja) 自律走行車の交通予測における予測軌跡の評価フレームワーク
JP2019501435A (ja) 自律走行車の走行を決定するための周辺環境を構築する方法及びシステム
JP2010146428A (ja) 追従対象車検索システム、追従対象車検索方法および追従対象車検索用プログラム
JP2020109578A (ja) 情報処理装置及びプログラム
CN108932290B (zh) 地点提案装置及地点提案方法
JPWO2017183476A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP6697998B2 (ja) 移動体保険料算出方法、移動体保険料算出装置、移動体保険料算出プログラム及び移動体
US11631328B2 (en) Determination device, determination method, and non-transitory computer readable storage medium storing determining program
CN111369786B (zh) 乘车出行的监控方法、车辆、服务器、系统和设备
JP2020154809A (ja) 運行制御装置及び車両
US20210146946A1 (en) Information collection device and information collection method
JP7068156B2 (ja) 情報処理装置及びプログラム
JP6999540B2 (ja) 情報処理装置及びプログラム
JP7375705B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6657048B2 (ja) 処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体
US11440554B2 (en) Method and system for determining driver emotions in conjuction with driving environment
JP5478234B2 (ja) 運転シーン判定装置、運転シーン判定方法およびプログラム、ならびに、ワークロード推定装置、ワークロード推定方法およびプログラム
JP6816247B2 (ja) 情報提供装置
WO2023203725A1 (ja) 情報分析装置及び情報分析方法
JP2019012480A (ja) 運転診断装置および運転診断方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231009

R151 Written notification of patent or utility model registration

Ref document number: 7375705

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151