JP2020086762A - 評価システム、評価方法、およびプログラム - Google Patents

評価システム、評価方法、およびプログラム Download PDF

Info

Publication number
JP2020086762A
JP2020086762A JP2018218359A JP2018218359A JP2020086762A JP 2020086762 A JP2020086762 A JP 2020086762A JP 2018218359 A JP2018218359 A JP 2018218359A JP 2018218359 A JP2018218359 A JP 2018218359A JP 2020086762 A JP2020086762 A JP 2020086762A
Authority
JP
Japan
Prior art keywords
vehicle
evaluation
occupant
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018218359A
Other languages
English (en)
Other versions
JP7361466B2 (ja
Inventor
敦行 鈴木
Atsuyuki Suzuki
敦行 鈴木
政宣 武田
Masanori Takeda
政宣 武田
康彰 青木
Yasuaki Aoki
康彰 青木
弘和 渡辺
Hirokazu Watanabe
弘和 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2018218359A priority Critical patent/JP7361466B2/ja
Priority to US16/677,706 priority patent/US11335103B2/en
Priority to CN201911145850.XA priority patent/CN111210100B/zh
Publication of JP2020086762A publication Critical patent/JP2020086762A/ja
Application granted granted Critical
Publication of JP7361466B2 publication Critical patent/JP7361466B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06393Score-carding, benchmarking or key performance indicator [KPI] analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/03Credit; Loans; Processing thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Resources & Organizations (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Educational Administration (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Technology Law (AREA)
  • Game Theory and Decision Science (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】乗員の社会的な信用性を評価することができる評価システム、評価方法、およびプログラムを提供すること。【解決手段】この発明の一態様に係る評価システムは、車両の外観を撮像した画像を取得する取得部と、前記画像取得部により取得された前記画像に基づいて、前記乗員の社会的な信用性を評価する評価ポイントを導出して付与する評価部と、を備える、評価システムである。【選択図】図1

Description

本発明は、評価システム、評価方法、およびプログラムに関する。
従来、操舵角、アクセル操作量、ブレーキ操作状態等のドライバの運転操舵に基づいた車両の運転状態を取得し、取得した運転状態に基づいてドライバの安全運転レベルを判定する技術が知られている(例えば、特許文献1参照)。
特開2009−128486号公報
しかしながら、従来の技術では、ドライバの運転操舵が交通ルールに即したものであったかを判定することはできたが、周囲のドライバに対する配慮などの社会性やマナーに即した運転操舵であったか、すなわち、ドライバが社会的にどの程度信頼されるかまでは判断することができなかった。
本発明の態様は、このような事情を考慮してなされたものであり、乗員の社会的な信用性を評価することができる評価システム、評価方法、およびプログラムを提供することを目的の一つとする。
この発明に係る評価システム、評価方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る評価システムは、車両の外観を撮像した画像を取得する取得部と、前記取得部により取得された前記画像に基づいて、前記車両の乗員の社会的な信用性を評価する評価ポイントを導出して付与する評価部と、を備える、評価システムである。
(2):上記(1)の一態様において、前記取得部は、更に、前記車両の乗員に関する情報と、前記車両の走行に関する情報とを取得し、前記評価部は、前記取得部により取得された情報に更に基づいて前記評価ポイントを導出するものである。
(3):上記(1)または(2)の態様において、前記評価部は、前記乗員による所定の好ましい振る舞いを検出した場合、前記乗員をプラス評価し、前記乗員による所定の好ましくない振る舞いを検出した場合、前記乗員をマイナス評価するものである。
(4):上記(3)の態様において、前記評価部は、前記画像に基づいて前記振る舞いを類型化するものである。
(5):上記(2)から(4)のいずれかの態様において、前記乗員に関する情報は、前記乗員の事故歴であるものである。
(6):上記(1)から(5)のいずれかの態様において、前記評価部は、前記画像に基づいて、事故の発生の有無を推定するものである。
(7):上記(1)から(6)のいずれかの態様において、前記取得部は、さらに前記車両の走行に関するセンシング結果を取得し、前記評価部は、前記センシング結果に基づいて、事故の発生の有無を推定するものである。
(8):上記(6)または(7)の態様において、前記評価部は、事故が発生したと推定し、且つ、前記事故の原因が乗員にあると推定した場合、前記乗員をマイナス評価するものである。
(9):上記(1)から(8)のいずれかの態様において、前記取得部は、更に、前記車両に搭載された車載カメラにより車外を撮像した画像を取得し、前記車載カメラにより車外を撮像した画像に基づいて、前記乗員が前記車両の運転中に他の車両に対して道を譲ったことに関する情報を取得し、前記評価部は、前記取得部により前記道を譲ったことに関する情報が取得された場合に、前記乗員が好ましい振る舞いをしたとしてプラス評価するものである。
(10):上記(1)から(9)のいずれかの態様において、前記取得部は、車室内を撮像した画像を更に取得し、前記評価部は、前記車室内を撮像した画像に基づいて、前記乗員の前記車両の整理整頓に貢献した度合を評価し、前記度合が所定の上限度合以上である場合に、前記乗員が好ましい振る舞いをしたとして前記乗員をプラス評価し、前記取得部により取得された前記度合が所定の下限度合未満である場合に、前記乗員が好ましくない振る舞いをしたとして前記乗員をマイナス評価するものである。
(11):上記(10)の態様において、前記取得部は、前記車室内を撮像した画像に基づいて、運転を担当する乗員が他の乗員に貢献した度合を取得し、前記評価部は、前記取得部により取得された前記度合が所定の度合以上である場合に、前記運転を担当する乗員が好ましい振る舞いをしたとして前記運転を担当する乗員をプラス評価するものである。
(12):上記(10)または(11)の態様において、前記取得部は、前記車室内を撮像した画像に基づいて、乗員が他の乗員に対してマナーを守って接したか否かを判定するための情報を取得し、前記評価部は、前記取得部により取得された前記マナーを守って接したか否かを判定するための情報に基づいて、前記乗員が好ましい振る舞いをしたか否かを判定し、前記乗員が好ましい振る舞いをしたと判定した場合、前記乗員をプラス評価するものである。
(13):上記(1)から(12)のいずれかの態様において、前記乗員が所属する組織単位毎に、前記乗員の前記評価ポイントを集計する、集計部をさらに備えるものである。
(14):この発明の一態様に係る評価方法は、コンピュータが、車両の外観を撮像した画像を取得し、取得された前記画像に基づいて、前記車両の乗員の社会的な信用性を評価する評価ポイントを導出して付与する、評価方法である。
(15):この発明の一態様に係るプログラムは、車両の外観を撮像した画像を取得させ、取得された前記画像に基づいて、前記車両の乗員の社会的な信用性を評価する評価ポイントを導出して付与させる、プログラムである。
(1)〜(15)によれば、乗員の社会的な信用性を評価することができる。
第1の実施形態に係る評価システム1の構成図である。 車載装置10の構成を示す図である。 車両走行情報38−2の内容の一例を示す図である。 評価イベント情報38−3の内容の一例を示す図である。 事故歴情報38−4の内容の一例を示す図である。 端末装置50の構成を示す図である。 画像送信アプリ62の入力画面の例を模式的に示す図である。 評価サーバ100の構成を示す図である。 評価テーブル132の内容の一例を示す図である。 評価ポイント134の内容の一例を示す図である。 評価イベント情報138の内容の一例を示す図である。 事故歴情報136の内容の一例を示す図である。 評価システム1における処理の概要を説明するための図である。 車載装置10による車両Mの外観に関する判定処理の流れの一例を示すフローチャートである。 車載装置10による乗員の車両Mの運転に関する判定処理の流れの一例を示すフローチャートである。 評価サーバ100による評価ポイントの導出処理の流れの一例を示すフローチャートである。 第2の実施形態に係る評価サーバ100Aの構成を示す図である。 評価テーブル132Aの内容の一例を示す図である。 ライドシェア時の評価イベント情報138Aについて説明するための図である。 第2の実施形態に係る車載装置10Aによる乗員の車両Mの運転に関する判定処理の流れの一例を示すフローチャートである。 集計部150による集計処理の流れの一例を示すフローチャートである。
以下、図面を参照し、本発明の評価システム、評価方法、およびプログラムの実施形態について説明する。
(第1の実施形態)
図1は、評価システム1の構成を示す図である。評価システム1は、例えば、車載装置10を搭載する車両Mと、車両Mの乗員の使用する端末装置50と、評価サーバ100とを備える。
車載装置10と、端末装置50と、評価サーバ100とは、ネットワークNWを介して通信する。ネットワークNWは、例えば、LAN(Local Area Network)やWAN(Wide Area Network)、インターネット、セルラー網、やWi−Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)等を含む。
車両Mは、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。
車載装置10は、車両Mの乗員が行った乗員の社会的な信用性を示す評価値(以下、評価ポイント)が高まる行為および評価ポイントが低くなる行為に関する情報を評価サーバ100に送信する。
端末装置50は、車載装置10において評価ポイントの高まる行為および評価ポイントが低くなる行為に関する車両Mの外観を撮像した画像を車載装置10に送信する。
評価サーバ100は、車載装置10から受信した情報に基づいて、乗員の評価ポイントを管理する。評価サーバ100は、例えば、公的機関や、車両Mの製造メーカ、保険会社、信販会社等により管理される。
[車載装置]
図2は、車載装置10の構成を示す図である。車載装置10は、例えば、カメラ12と、車両センサ14と、方向指示器16と、操作検出部18と、通信装置20と、車室内カメラ22と、解析装置30とを備える。これらの装置や機能等は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。また、車載装置10は、上記機能構成の他に、車両の各部を制御するECU(Electronic Control Unit)等を含んでもよい。図2に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
カメラ12は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ12は、車載装置10が搭載される車両Mの任意の箇所に一つまたは複数が取り付けられ、車両Mの車外を撮像する。前方を撮像する場合、カメラ12は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ12は、例えば、周期的に繰り返し車両Mの周辺を撮像する。カメラ12は、ステレオカメラであってもよい。
また、車両Mには、前方を撮像するカメラの他に、後方または横方向を撮像するカメラが取り付けられていてもよい。後方を撮像する場合、カメラ12は、車両Mのリアバンパー付近に取り付けられる。車両の側方または後側方を撮像する場合、例えば、車体の外装部分(例えば、Aピラー、屋根、サイドドア)等に取り付けられる。これにより、カメラ12は、車両Mの前後左右を走行する他車両や、車両Mとすれ違い走行する他車両を撮像することができる。
車両センサ14は、車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、車両Mの向きを検出する方位センサ等を含む。
方向指示器16は、運転者が所定の操作部を操作することにより点滅を開始し、所定の操作部を操作する前の状態に戻す操作を行うことにより点滅が停止する。操作検出部18は、方向指示器に対して行われる操作を検出する。例えば、操作検出部18は、方向指示器が点滅している状態(オン状態)であるか、点滅していない状態(オフ状態)であるかを検出し、検出結果を解析装置30に出力する。
通信装置20は、例えば、Bluetoothなどを利用して、端末装置50と通信する。また、通信装置20は、例えば、セルラー網やWi−Fi網、Bluetooth、DSRC(Dedicated Short Range Communication)などを利用して、車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信してもよい。
車室内カメラ22は、例えば、CCDやCMOS等の固体撮像素子を利用したデジタルカメラである。車室内カメラ22は、車載装置10が搭載される車両Mの任意の箇所(好ましくは、運転者を含む乗員全体を撮像可能な箇所)に一つまたは複数が取り付けられ、車両Mの車室内を撮像する。車室内カメラ22は、例えば、周期的に繰り返し車両Mの車室内を撮像する。車室内カメラ22は、ステレオカメラであってもよい。
解析装置30は、例えば、取得部32と、解析部34と、出力部36と、記憶部38とを備える。記憶部38を除くこれらの構成要素は、例えば、CPU(Central Processing Unit)等のコンピュータプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め記憶部38に格納されていてもよいし、DVDやCD−ROM等の着脱可能な記憶媒体に格納されており、記憶媒体がドライブ装置に装着されることで記憶部38にインストールされてもよい。
取得部32は、カメラ12により撮像された画像や、車両センサ14の検出結果、方向指示器16の検出結果、操作検出部18の検出結果、車室内カメラ22により撮像された画像等を取得する。
取得部32は、カメラ12により撮像された画像のうち、車両Mの車体の少なくとも一部の外観が分かる画像を外観画像38−5として記憶部38に記憶させ、車両Mの走行時に取得された画像を走行時画像38−6として記憶部38に記憶させる。また、取得部32は、車室内カメラ22により撮像された画像を、車室内画像38−7として記憶部38に記憶させる。
取得部32は、方向指示器16の検出結果、および操作検出部18の検出結果を車両走行情報38−2として記憶部38に記憶させる。
解析部34は、取得部32により取得された画像および情報を解析する。解析部34は、解析結果のうち、乗員の運転に関する解析結果を車両走行情報38−2として記憶部38に記憶させる。
具体的に、車両走行情報38−2とは、例えば、車両Mが定速追従走行、車線変更、分岐、合流、追い越し、すれ違い等の走行態様に関する情報(例えば、車両Mの運転者に関する情報と、車両Mの走行態様と、その走行態様が行われた時刻、および、その走行態様に関係する他車両を識別するための情報等)である。
図3は、車両走行情報38−2の内容の一例を示す図である。以下、車両Mを識別する車両IDがV001であるものとして説明する。車両走行情報38−2には、運転者が車両Mをどのように運転したかを示すログ情報が蓄積される。車両走行情報38−2には、例えば、車両IDがV002の他車両と車両IDがV003の他車両の間に合流し(図3のNo.1)、その後車両IDがV002の他車両を追従して走行したこと(図3のNo.2)を示す情報が格納されたり、車両IDがV004の他車両が合流できるように車速を緩めてスペースを確保したこと(図3のNo.3)を示す情報が格納されたりする。
解析部34は、例えば、車両Mのナビゲーション装置等の保有する地図情報と車両Mの位置情報を見比べながら、カメラ12の撮像した画像から認識される道路等の認識結果と合致しているかを判断し、車両Vがこれらの典型的な行動をとったか否かを判断する。また、解析部34は、例えば、追従に関しては、カメラ12により撮影された一連の画像を参照し、同じ車両(例えば、ナンバープレートで判断したり、車両IDを受信することで判別する)の後を一定の間隔を保って走行する場合に、追従が行われたと判定する。
また、解析部34は、例えば、車両Mのナビゲーション装置等の保有する地図情報に基づいて、車両Mが合流路を通過し、合流した車線の所定範囲内に他車両が存在し、その他車両が車速を緩めることで車両Mが合流できるようにスペースを確保した場合に、車両Mの合流が行われたと判定する。解析部34は、カメラ12により撮影された一連の画像や、他車両によりヘッドライトを短時間照明したり、ホーンを鳴らしたりするといった不満を示す行為が認識された場合には、車両Mが割り込み合流したものと解析する。なお、解析部34による追従、合流等のイベントが行われたか否かの判定は、他の車両による解析結果を受け付け、その解析結果に基づいて判定するものであってもよい。
また、解析部34は、乗員の運転に関する解析結果のうち、評価イベントに関連する情報を評価イベント情報38−3として記憶部38に記憶させる。評価イベントとは、後述する評価サーバ100において、評価ポイントの付与対象となる車両Mを運転する乗員(以下、運転者)の行為のことである。
出力部36は、記憶部38に記憶された各種情報の一部または全部を、所定のタイミング(例えば、乗員が車両Mを降車するタイミングや、運転者が交代するタイミング等)で通信装置20を介して評価サーバ100に送信する。
記憶部38は、例えば、HDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)により実現されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで実現されもよい。記憶部38は、例えば、乗員情報38−1、車両走行情報38−2、評価イベント情報38−3、事故歴情報38−4、外観画像38−5、走行時画像38−6、車室内画像38−7などを記憶する。
図4は評価イベント情報38−3の内容の一例を示す図である。評価イベント情報38−3には、例えば、運転者が合流路で他車両に道を譲ったこと(図4のNo.1)を示す情報等が運転者毎に格納される。
図5は、事故歴情報38−4の内容の一例を示す図である。事故歴情報38−4には、車両Mの運転者が過去に起こした事故に関する情報が運転者毎に格納される。事故歴情報38−4に格納される情報は、車載装置10の解析部34により乗員が事故を起こしたと検出された評価イベント情報38−3を抽出したものであってもよいし、例えば、警察や保険会社、車両修理工場等により管理または使用される外部装置により提供される事故の情報が反映されるものであってもよい。
車室内画像38−7は、車両Mの乗員の乗車前後、または乗員の乗車中に車室内カメラ22により撮像される画像である。解析部34は、記憶部38に記憶された上述の情報および画像に基づいて、乗員の運転に関する解析を行う。
乗員情報38−1には、乗員であるユーザを認識するためのID(識別情報)や、氏名、住所等の情報が含まれる。
なお、解析装置30の機能の一部または全部は、図2に示すように車載装置10に内包されるものであってもよいし、車載装置10の外部装置(例えば、評価サーバ100上)で実現されるものであってもよい。
[端末装置]
図6は、端末装置50の構成を示す図である。端末装置50は、例えば、スマートフォンやタブレット端末等の乗員が携帯可能な端末装置である。端末装置50は、例えば、通信部52と、処理部54と、タッチパネル56と、カメラ58と、記憶部60とを備える。記憶部60を除く構成要素は、例えば、CPU等のコンピュータプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやGPU等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め記憶部60に格納されていてもよいし、SDカード等の着脱可能な記憶媒体に格納されており、記憶媒体がドライブ装置に装着されることで記憶部60にインストールされてもよい。
通信部52は、例えば、セルラー網やWi−Fi網、Bluetoothなどを利用して、車載装置10と通信する。
処理部54は、後述する画像送信アプリ62が端末装置50のCPU等のプロセッサにより実行されることにより実現される。
処理部54は、例えば、制御部54−1と、出力部54−2とを備える。制御部54−1は、カメラ58により取得された車両Mの車体の外観が分かる画像を外観画像64として記憶部60に記憶させる。
出力部54−2は、記憶部60に記憶された、カメラ58により取得された画像を、通信部52に出力することで、通信部52によって車載装置10に送信させる。
タッチパネル56は、乗員の画像送信アプリ62等に対する操作入力を受け付け、制御部54−1に操作入力の受付結果を出力する。
記憶部60は、例えば、ROM(Read Only Memory)、フラッシュメモリ、SDカード、RAM(Random Access Memory)、レジスタ等によって実現される。記憶部60には、例えば、画像送信アプリ62、外観画像64、外観画像関連情報66等が記憶される。
画像送信アプリ62は、例えば、自動車メーカの管理下にあるサーバによって提供され、端末装置50にダウンロードされたアプリケーションプログラムである。画像送信アプリ62は、例えば、車両Mの乗員が自らの運転について申告する際に用いられる。画像送信アプリ62は、外観画像64に関する乗員の申告内容を、外観画像関連情報66として記憶部60に記憶させる。
画像送信アプリ62は、乗員により撮像された外観画像64と、その外観画像64に対応付いた外観画像関連情報66を、車載装置10に送信する。外観画像関連情報66とは、例えば、外観画像64に対する乗員のコメントである。
車載装置10は、通信装置20を介して画像送信アプリ62により送信された外観画像64を受信し、解析装置30に出力する。画像送信アプリ62により送信された外観画像64は、解析部34による解析ののち、外観画像38−5として記憶される。
図7は、画像送信アプリ62の入力画面の例を模式的に示す図である。画像送信アプリ62は、例えば、運転者が自宅ガレージに車両Mを駐車している最中に何らかの原因でできた傷や凹みについて、図7に示すように、外観画像64と、その外観画像64に関するコメントである外観画像関連情報66とを車載装置10に送信することにより、傷や凹みの原因が事故ではないことの申告を行う。
[評価サーバ]
図8は、評価サーバ100の構成を示す図である。評価サーバ100は、例えば、解析結果取得部110と、評価部120と、記憶部130とを備える。解析結果取得部110および評価部120は、例えば、CPU等のコンピュータプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPU等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)により実現されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで実現されもよい。
解析結果取得部110は、車載装置10の解析装置30により解析された乗員の行為に関する解析結果である評価イベント情報38−3を取得する。解析結果取得部110は、取得した評価イベント情報38−3を、評価イベント情報138として記憶部130に記憶させる。
図9は、評価イベント情報138の内容の一例を示す図である。評価イベント情報138には、例えば、車載装置10により送信された評価イベント情報38−3の情報のうち、評価に関連する一部の情報が抜粋された状態で、乗員毎に記憶される。なお、評価イベント情報138には、後述する評価部120により評価された結果である、評価ポイントの付与状況が併せて記憶されてもよい。図9に示す例において、評価部120が乗員であるユーザAが道を譲った評価イベントに対してプラス2点の評価ポイントを付与し、事故を起こした評価イベントに対してマイナス100点の評価ポイントを付与したことを示す。
なお、評価イベント情報138には、解析装置30により解析された外観画像38−5(特に、好ましくない振る舞いに該当する評価イベントに関連するもの)や、画像送信アプリ62を用いて乗員により送信された外観画像64、および外観画像関連情報66が含まれてもよい。
また、解析結果取得部110は、解析装置30により解析された事故歴情報38−4を取得し、事故歴情報136として記憶部130に記憶させる。
図10は、事故歴情報136の内容の一例を示す図である。なお、事故歴情報136には、例えば、警察や保険会社等により使用される外部装置により提供される情報(例えば、複数車両が関係する事故であれば、自車両側の過失割合など)が反映されてもよい。
図8に戻り、評価部120は、評価イベント情報138に基づいて、乗員が所定の好ましい振る舞いをしたと検出した場合、その乗員をプラス評価し、所定の好ましくない振る舞いを検出した場合、その乗員をマイナス評価する。所定の好ましい振る舞い、および所定の好ましくない振る舞いについては後述する。
評価部120は、解析結果取得部110が取得した評価イベント情報138と、評価テーブル132とに基づいて、乗員に付与する評価ポイントを決定し、評価ポイント134に格納する。また、評価部120は、解析結果取得部110が取得した乗員の評価に関する解析結果と、乗員に付与する評価ポイントの付与結果を、評価イベント情報138として格納する。
図11は、評価テーブル132の内容の一例を示す図である。評価部120は、例えば、図11に示すような評価テーブル132を参照して、乗員の行為毎の評価ポイントを付与する。評価部120は、例えば、乗員が道を譲ったという評価イベントを検出した場合、図11に示す評価テーブル132を検索して、道を譲った評価イベントに対応付いた評価ポイント数である2点をプラスする。同様に、評価部120は、事故を起こしたという評価イベントを検出した場合、評価テーブル132を検索して、事故を起こした評価イベントに対応付いた評価ポイント数である100点をマイナスする。
なお、評価テーブル132には、評価規則が格納されていてもよい。評価規則とは、例えば、1日に2回以上道を譲った場合には、道を譲ったことに対して付与される評価ポイントを2倍にし、1週間に5回以上道を譲った場合には、道を譲ったことに対して付与される評価ポイントを3倍にする、などのルールのことである。評価部120は、評価テーブル132に格納された評価規則に基づいて、付与する評価ポイントを導出する。
図12は、評価ポイント134の内容の一例を示す図である。評価ポイント134には、例えば、乗員とその乗員の評価ポイントを示す情報が格納される。評価ポイント134は、図9に示した評価イベント情報138の乗員毎の評価ポイントの所定期間内(例えば、過去1か月、過去1年間など)の合計値に該当する。評価ポイント134には、例えば、図12に示すように、乗員であるユーザAの評価ポイントが10であり、乗員であるユーザBの評価ポイントが5であるという情報が格納される。評価部120は、所定期間の乗員の評価ポイント134を出力することにより、その乗員の社会的な信用性の評価の指標となる情報を評価サーバ100の利用者に提供する。図6に示す例においては、ユーザAの方がユーザBと比較して評価ポイントが高いことから、より高い信用性があることが示され、ユーザCの方がユーザAおよびBと比較して評価ポイントが高いことから、より高い信用性があると評価される状態にあるといえる。
記憶部130には、例えば、評価テーブル132、評価ポイント134、事故歴情報136、評価イベント情報138等の情報が記憶される。
[評価イベントの分類]
評価部120は、評価イベントを所定の好ましい振る舞い、または所定の好ましくない振舞いに分類する。所定の好ましい振る舞いとは、例えば、所定期間無事故であることや、安全運転であること、エコ運転であること、他の車に道を譲ること等の、乗員に社会性があることの判断基準や、乗員がマナーを守る傾向があることの判断基準である。
所定の好ましくない振る舞いとは、例えば、交通事故を起こすことや、交通ルール違反、煽り行為、ごみのポイ捨て等である。
[好ましい振る舞いの解析]
解析部34は、車両Mの乗員の評価イベントを解析し、乗員により好ましい振る舞いが行われたことを検出する。解析部34は、例えば、好ましい振る舞いとして検出する対象が道を譲る行為である場合、カメラ12が車外を撮像した画像を解析し、車両Mの乗員が運転中に道を譲ったと解釈可能な行為を検出する。道を譲るとは、例えば、同一方向に進行する車両の合流地点において車速を緩めて他の車両を先に通行させることや、対面走行が難しい狭い道において、端に寄って対向車両を先に通行させること、緊急車両などを自車両よりも先に通行させるために道の端に寄ったり、停止したりすることである。なお、解析部34は、もともと他車両が合流する空間が十分に存在していたため車両Mが特に速度を緩めていない場合や、他車両が強引に合流してきた場合には、道を譲ったとは解釈しない。
なお、好ましい振る舞いが行われたかについては、その行為の恩恵を受けた者による反応を参考に解釈されてもよい。解析部34は、例えば、相手の車両の乗員が手を挙げたことを検知した場合や、ハザードランプ等の短時間点灯等のお礼を示す行為を検知した場合に、車両Mの乗員が道を譲ったと解釈する。また、解析部34は、通信装置20が車両Mの周辺に存在する他車両と通信した結果、好ましい振る舞いに対するお礼を示す情報などを受信した場合に、車両Mの乗員が道を譲ったことを検出してもよい。
[好ましくない振る舞いの解析]
解析部34は、車両Mの乗員の評価イベントを解析し、乗員により好ましくない振る舞いが行われたことを検出する。
解析部34は、例えば、好ましくない振る舞いとして検出する対象の評価イベントが、交通事故を起こすことである場合、端末装置50により送信された画像を解析したり、または各種ECU(不図示)により検出された車両の走行情報を示すセンシング結果を解析したりすることにより得られた車両Mの状態を解析し、車両Mの乗員が交通事故を起こしたか否かを推定する。
解析部34は、乗車前や前回降車時などに撮像された車両Mの外観画像38−5と、端末装置50により送信された外観画像64とを比較して、車両Mの外観の変化を検出する。外観の変化とは、例えば、車両Mの車体の傷や凹みの増加である。解析部34は、車両Mの外観の変化を検出した場合、その乗員の乗車時に何らかの事故を起こしたと解析する。
なお、解析部34は、車両Mの車体の傷や凹みの発生原因が乗員の行為に起因せず、且つ、正当な理由がある場合、(例えば、他者の事故に巻き込まれた場合や、落下物や飛来物により凹みができた場合、乗降時などの走行中でないタイミングに何らかのトラブルで傷ができた場合、他者のいたずら行為により傷や凹みができた場合等)、乗員からその申告を受け付けるものであってもよい。
その場合、解析部34は、図7に示したような端末装置50の画像送信アプリ62により送信された傷や凹みの映り込んだ外観画像64と、乗員の申告するその傷や凹みができた原因についての乗員のコメントである外観画像関連情報66とを加味して、その乗員が事故を起こしたか否かを判定する。解析部34は、傷や凹みができたと想定される時間帯の外観画像38−5や走行時画像38−6を検索し、その検索結果と画像送信アプリ62の乗員の申告内容とに矛盾がないことを確認してもよい。
また、解析部34は、カメラ12により撮像された傷や凹みの発生時の画像を解析して、傷や凹みの発生原因を推定してもよい。解析部34は、運転者の行為により発生した傷や凹みであるか、乗員の行為に起因しない傷や凹みであるかを区別して、評価イベント情報38−3に格納する。なお、解析部34は、乗員の行為に起因しない傷や凹みである場合には、評価イベント情報38−3への情報の格納を省略して、車両走行情報38−2に格納してもよいし、情報の格納自体を省略してもよい。
また、解析部34は、ECUにより検出された車両の走行情報を示すセンシング結果を解析し、車両Mの乗員が交通事故を起こしたかを推定する。例えば、前方の他車両などの対象物に追突するか否かを判断する制御ECUや、追突が発生する場合の衝撃を軽減するブレーキ制御ECUを車両Mが搭載している場合、解析部34は、制御ECUが対象物に追突すると判定し、且つブレーキ制御ECUが作動して衝撃の軽減が行われた場合に、車両Mの乗員が交通事故を起こしたと推定する。
また、解析部34は、車両Mに搭載されたエアバッグが作動するような事故が発生した場合に、そのエアバッグを制御する制御ECUのセンシング結果に基づいて事故があったと解析する。さらに解析部34は、制御ECUのセンシング結果を参照して、事故が発生したタイミングの前後にカメラ12により撮像された画像を解析することで、車両Mの乗員が事故を起こしたか、他者の起こした事故に巻き込まれたかを推定してもよい。
また、解析部34は、例えば、好ましくない振る舞いとして検出する対象の評価イベントが、煽り行為である場合、カメラ12により撮影された画像を解析し、車両Mの乗員が煽り行為を行ったか否かを判定する。取得部32により取得された車両Mの前走車両との距離に基づいて、前走車両に必要以上に接近した状態で走行を継続したり、ヘッドライトのパッシングをしたり、ホーンを頻繁に鳴らしたり、左右に小刻みにハンドルを切って自車両Mを走行させる行為などが検出された場合に、煽り行為をしたと解釈する。
解析部34は上述のように、カメラ12により撮像された画像や、外観画像38−5、およびECUにより検出された車両の走行情報を示すセンシング結果に基づいて、乗員の行動を解析して、解析結果として得られた評価イベントが好ましい振る舞いに該当するか、または好ましくない振る舞いに該当するかを類型化し、評価イベント情報38−3として記憶させる。評価イベントの類型化は、例えば、評価サーバ100を管理する公的機関や、車両Mの製造メーカ、保険会社、信販会社等により設定され、解析部34における解析処理では、その類型に基づいて評価イベントの解析が行われる。
[信用性の評価]
以下、評価サーバ100による乗員の信用性の評価について説明する。評価サーバ100は、車載装置10により解析された乗員の評価イベントに基づいて、乗員の信用性を評価する評価ポイントを導出する。
また、評価部120は、乗員の事故歴に基づいて、付与する評価ポイントを導出してもよい。その場合、評価テーブル132には、例えば、事故歴情報136に所定期間内に発生した履歴がない乗員には、集計タイミングで加算される所定のボーナス点数や、評価ポイントがより高比率で付与されるような規則(例えば、プラス点数であれば通常点数の2倍のポイントが付与されたり、マイナス点数であれば通常点数の0.5倍のポイントが付与されたりするというように、評価ポイントが加算されやすく、且つ、減算されにくいような規則)が格納される。
また、評価部120は、乗員が自動車教習所を高得点で卒業した場合や、運転マナーに関する教習を受けた場合、車両の点検を受けた場合により高い評価ポイントを付与してもよい。その場合、評価テーブル132には、例えば、所定のボーナス点数や、評価ポイントがより高比率で付与されるような規則が格納される。
評価部120は、例えば、図10に示すような乗員毎に記録された事故歴情報136を参照して、ユーザAが所定期間内に事故を起こしたか否かを判定することで、評価ポイントの導出時の評価規則を決定する。
評価部120は、例えば、図9に示した評価イベント情報138や、図10に示した事故歴情報136のうち、所定期間(例えば、1か月単位や、1年単位)の情報を抽出し、図11に示した評価テーブル132を参照しながら評価ポイントを導出することで、図12に示すような乗員毎の評価ポイントの集計値を導出する。
[処理概要]
図13は、評価システム1における処理の概要を説明するための図である。まず、端末装置50は、車載装置10に車両Mの外観等の画像を送信する。
次に、車載装置10は、端末装置50により送信された画像を受信し、その画像に基づいて乗員の所定の好ましい振る舞いや所定の好ましくない振る舞いに該当する評価イベントを検出または推定する。車載装置10は、カメラ12や車室内カメラ22により撮像された画像を、評価イベントの検出または推定時に用いてもよい。車載装置10は、検出または推定した評価イベント情報38−3を評価サーバ100に送信する。
また、車載装置10は、カメラ12や車室内カメラ22により撮像された画像と、画像送信アプリ62により送信された外観画像64および外観画像64に関する乗員のコメントとに基づいて、乗員の行為の検出または推定を行ってもよい。
次に、評価サーバ100は、車載装置10により送信された乗員の評価イベント情報38−3を受信し、その情報に基づいて乗員の評価ポイントを導出して付与する。評価サーバ100は、例えば、所定期間毎に乗員の評価ポイントを、その乗員毎に集計する。
[処理フロー]
以下、評価システム1による処理の流れについて説明する。図14は、車載装置10による車両Mの外観に関する判定処理の流れの一例を示すフローチャートである。本フローチャートの処理は、例えば、所定の周期で繰り返し実行されてよい。
まず、端末装置50のカメラ58は、乗員の操作に応じて車両Mの外観画像64を撮像し(ステップS100)、画像送信アプリ62を介して、外観画像64を車載装置10に送信する(ステップS102)。なお、ステップS102において、画像送信アプリ62は、乗員により外観画像64に関する外観画像関連情報66の入力があった場合には、外観画像64と併せて送信する。
次に、解析部34は、端末装置50により送信された外観画像を解析し(ステップS104)、車両Mの車体に傷や凹みができたか否かを判定する(ステップS106)。傷や凹みができていないと判定した場合、解析部34は、処理を終了する。
ステップS106において傷や凹みができたと判定した場合、解析部34は、その傷や凹みができた正当な理由があるか否かを、カメラ12の撮像した画像や、端末装置50により送信された乗員の申告内容(外観画像64と外観画像関連情報66)に基づいて判定する(ステップS108)。
ステップS108において傷や凹みができた正当な理由があると判定した場合、解析部34は、処理を終了する。ステップS108において傷や凹みができた正当な理由があると判定しなかった場合、解析部34は、乗員が事故を起こしたものと検知する(ステップS110)。以上、本フローチャートの処理の説明を終了する。
図15は、車載装置10による乗員の車両Mの運転に関する判定処理の流れの一例を示すフローチャートである。本フローチャートの処理は、例えば、所定の周期で繰り返し実行されてよい。
まず、取得部32は、車両走行情報38−2、外観画像38−5、走行時画像38−6、および車室内画像38−7を取得する(ステップS200)。次に、解析部34は、取得部32が取得した各種情報を解析する(ステップS202)。
次に、解析部34は、解析結果として乗員の評価イベントが検出されたか否かを判定する(ステップS204)。評価イベントが検出されたと判定しなかった場合、解析部34は処理を終了する。評価イベントが検出されたと判定した場合、解析部34は、評価イベントの履歴を、評価イベント情報38−3として格納する(ステップS206)。以上、本フローチャートの処理の説明を終了する。
図16は、評価サーバ100による評価ポイントの導出処理の流れの一例を示すフローチャートである。
まず、解析結果取得部110は、車載装置10により送信された評価イベント情報38−3を取得して、評価イベント情報138として記憶部130に格納する(ステップS300)。次に、評価部120は、評価テーブル132に基づいて評価基準を設定し(ステップS302)、評価テーブル132を参照して評価ポイントを導出する(ステップS304)。以上、本フローチャートの処理の説明を終了する。
[解析結果の活用例]
車載装置10は、例えば、解析装置30の解析結果に基づいて、乗員が車両Mを運転することにより、評価ポイントが上がりやすくなるようにアドバイスする機能を有してもよい。
車載装置10は、例えば、事故歴情報136に所定期間内に乗員が事故を起こした履歴情報がある場合、車両Mのナビゲーション装置(不図示)に、事故発生率の高い道を避けるように指示することで、乗員の評価ポイントが上がりやすくなるように(下がりにくくなるように)アドバイスする。
以上説明した第1の実施形態によれば、車両Mの外観を撮像した外観画像を取得する取得部32と、取得部32により取得された外観画像38−5に基づいて、車両Mの乗員の社会的な信用性を評価する評価ポイント134を導出して付与する評価部120と、を備えることにより、乗員の社会的な信用性を評価することができる。
(第2の実施形態)
以下、第2の実施形態の評価システム1Aについて説明する。なお、以下の説明において、第1の実施形態と同一の構成及び機能については第1の実施形態と同一の符号を付し、詳細な説明を省略する。また、第1の実施形態と同じ名称であるが構成または機能が異なるものについては、符号の末尾に「A」を付すものとする。
なお、第2の実施形態において、車両Mは、タクシー車両や、カーシェア車両、ライドシェア車両であってもよいものとして説明する。カーシェア車両とは、複数の利用者によって一つ以上の車両を共同で利用する車両である。ライドシェア車両とは、複数の利用者が相乗りして利用する車両である。
図17は、第2の実施形態に係る評価サーバ100Aの構成を示す図である。評価サーバ100Aは、第1の実施形態の評価サーバ100に加えて、集計部150を更に備える。
集計部150は、乗員の所属する組織(例えば、乗員の勤務先や、タクシー会社、カーシェア車両またはライドシェア車両の管理組織など)毎に、乗員の評価ポイントを集計する。集計部150は、例えば、乗員情報38−1に含まれる乗員の勤務先や、乗員の所属する組織に関する情報を参照することで、乗員の所属する組織単位の評価ポイントの合計値や平均値、組織内の評価ポイントのランキング情報等を導出する。
この場合、集計部150により集計された結果に基づいて、組織単位の評価ポイントが所定基準より高ければ組織に所属する全員にボーナス点数を付与する、等の評価規則が評価テーブル132Aに記憶されてもよい。
なお、集計部150は、乗員が所定期間内に複数の車両に乗る場合、すべての車両の運転内容を集計対象としてもよいし、車両毎に集計対象とするか否かを評価サーバ100Aの利用者により選択させるものであってもよい。集計部150は、乗員が自家用車とライドシェア車両の両方に乗る機会があった場合、ライドシェア車両に乗る際の評価ポイントのみを集計対象とするものであってもよいし、自家用車に乗る際の評価ポイントとライドシェア車両に乗る際の評価ポイントの両方を集計対象とするものであってもよい。
[ライドシェア時の行動評価]
図18は、車両Mがライドシェア車両である場合に評価部120が参照する評価テーブル132Aを説明するための図である。評価テーブル132Aには、例えば、第1の実施形態の評価テーブル132と同様の評価観点の、乗員の運転時の行為に加えて、ライドシェア特有の行為についての評価ポイントが含まれる。
評価テーブル132Aには、例えば、ライドシェア特有の評価イベントとして、窓を拭いたことや、ゴミを拾ったことなどの車両Mの整理整頓に貢献したことが含まれる。また、評価テーブル132Aには、ライドシェア車両の動力エネルギー充填に協力することや、車両の不調をライドシェア車両の管理者に報告することなどが含まれてもよい。
これらの評価イベントは、例えば、車室内カメラ22により撮像された画像の解析により検出されるものであってもよいし、画像送信アプリ62Aを介して乗員により提供された画像や情報に基づいて検出されるものであってもよい。この場合、画像送信アプリ62Aは、カメラ58を用いて乗員が撮像した車両Mの車室内の画像を車室内画像68(不図示)として記憶部60に格納される。画像送信アプリ62Aは、乗員の操作に応じて、車室内画像68を車載装置10に送信する。
取得部32は、画像送信アプリ62Aにより送信される車室内画像68を受信し、車室内画像38−7A(不図示)として記憶させる。
解析部34Aは、例えば、乗員の乗車前、且つ清掃済みの車室内画像38−7Aと、乗員の乗車中や降車時の車室内画像38−7Aとを比較することで、乗員が車両Mの整理整頓の度合を取得する。整理整頓の度合とは、例えば、車両Mの車内備品が所定の位置にあることや、ゴミや汚れの増減を評価する指標である。また、解析部34Aは、ライドシェア車両Mに持ち込み厳禁のもの(例えば、灯油や火薬などの危険物や、ペット)が規定されている場合、その対象物を持ち込んでいないことを整理整頓の度合の評価に含めて解析してもよい。
解析部34Aは、例えば、乗員の乗車前に比較して降車時の方が整理整頓の度合が所定の上限度合以上になった場合に、乗員が車室内の整理整頓に貢献したものとして、その乗員がプラス評価される評価イベントが行われたものと検知する。また、解析部34Aは、例えば、乗員の乗車前に比較して降車時の方が整理整頓の度合が所定の下限度合未満になった場合に、乗員が車室内の整理整頓に貢献しなかったものとして、その乗員がマイナス評価される評価イベントが行われたものと検知する。
なお、車両Mがタクシー車両やライドシェア車両である場合に、運転者の運転に関する評価を他の乗員が行ったり、ライドシェア車両に同乗した乗員同士がお互いの評価を点け合ったりするものであってもよい。その場合、画像送信アプリ62Aは、乗員のうち車両Mの運転者の運転を評価したり、乗員同士の乗車マナーを評価したりするアプリケーションプログラムとしての機能を更に有する。画像送信アプリ62Aは、運転者に対する評価や、他の乗員がマナーを守って接したか否かに関する情報や、他の乗員の乗車マナーに対する評価を、乗員評価情報66A(不図示)として記憶する。
図19は、ライドシェア時の評価イベント情報138Aについて説明するための図である。解析部34Aは、例えば、ユーザAがライドシェア車両に乗車した際に窓を拭いたことや、車内のゴミを拾ったこと等を検知し、ライドシェアに関する評価イベント情報38−3として記憶部130に格納する。解析結果取得部110は、解析部34Aにより設定された評価イベント情報38−3を受信して、評価イベント情報138として記憶部130に格納する。評価部120は、評価イベント情報138Aに基づいて、乗員にライドシェアに関する評価ポイントを付与する。
評価部120Aは、例えば、図19に示す評価イベント情報138Aを参照し、乗員であるユーザAが窓を拭いた評価イベントに対してプラス2点の評価ポイントを付与し、ゴミを拾った評価イベントに対してプラス2点の評価ポイントを付与する。
なお、評価ポイントが付与される評価イベントには、運転者が他の乗員に貢献した度合を評価するための行為(例えば、他のライドシェア乗員の予定を優先して目的地や経由地を変更することや、他のライドシェア乗員の乗降を手助けすること、車両Mの点検を受けること、乗員が運転に関連する教習を受けること)や、マナーを守って接したか否か(例えば、ライドシェア乗員が車内で騒いだりすること)が含まれていてもよい。
[処理フロー]
図20は、第2の実施形態に係る車載装置10Aによる乗員の車両Mの運転に関する判定処理の流れの一例を示すフローチャートである。
まず、取得部32は、車室内画像38−7Aを取得する(ステップS400)。次に、解析部34Aは、取得した車室内画像38−7Aを解析する(ステップS402)。
次に、解析部34Aは、解析結果として乗員のライドシェア時のマナーに関する評価イベントが検出されたか否かを判定する(ステップS404)。評価イベントが検出されたと判定しなかった場合、解析部34Aは処理をステップS408に進める。評価イベントが検出されたと判定した場合、解析部34Aは、評価イベントの履歴を、評価イベント情報38−3Aとして格納する(ステップS406)。
次に、取得部32は、外観画像38−5、走行時画像38−6、および車両走行情報38−2を取得する(ステップS408)。次に、解析部34Aは、取得した画像および情報を解析する(ステップS410)。
次に、解析部34Aは、解析結果として乗員の運転に関する評価イベントが検出されたか否かを判定する(ステップS412)。評価イベントが検出されたと判定しなかった場合、解析部34Aは処理を終了する。評価イベントが検出されたと判定した場合、解析部34Aは、評価イベントの履歴を、評価イベント情報38−3として格納する(ステップS414)。以上、本フローチャートの処理の説明を終了する。
図21は、集計部150による集計処理の流れの一例を示すフローチャートである。
まず、集計部150は、乗員情報38−1を参照し、評価サーバ100Aの利用者により設定された集計単位毎に、乗員の評価ポイントを集計する(ステップS500)。次に、集計部150は、ステップS500の集計結果を、所定のレポート形式で出力することにおり、組織単位の評価情報を作成する(ステップS502)。以上、本フローチャートの処理の説明を終了する。
[解析結果の活用例]
車載装置10Aは、例えば、解析装置30Aの解析結果に基づいて、乗員が車両Mを運転することにより、評価ポイントが上がりやすくなるようにアドバイスする。
車載装置10Aは、例えば、車両Mの移動経路付近に車室内清掃設備がある場合、ナビゲーション装置(不図示)に、その車室内清掃施設に立ち寄って信用ポイントを上げることを乗員に提案させることで、乗員の評価ポイントが上がりやすくなるようにアドバイスする。
以上説明したように、第2の実施形態の評価システム1Aによれば、第1の実施形態と同様の効果を奏する他、取得部32は、車室内カメラ22により車室内を撮像した車室内画像38−7を取得し、解析部34Aが、車室内画像38−7Aに基づいて、乗員が車両Mの整理整頓に貢献した度合や、他の乗員に貢献した度合に基づいて評価イベントを検出することにより、車両Mがライドシェア車両である場合の乗員の社会性やマナーを評価することができる。また、第2の実施形態の評価システム1Aによれば、集計部150により乗員の所属する組織単位の評価ポイントに関する情報が得られることから、乗員の個人的な社会性に加え、組織的な社会性の評価を併せて得ることができる。
上記説明した第1の実施形態と第2の実施形態は、互いに排他的な関係にあるものではなく、適宜、組み合わせて実施することができる。例えば、評価サーバ100は、乗員個人の評価ポイントを導出すると共に、乗員が所属する組織における評価ポイントを導出してもよい。
上記実施形態は、以下のように表現することができる。
記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサは、前記記憶装置に格納されたプログラムを実行することにより、
車両の外観を撮像した画像を取得し、
取得された前記画像に基づいて、前記車両の乗員の社会的な信用性を評価する評価ポイントを導出して付与する、
ように構成されている評価システム。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1‥評価システム、10‥車載装置、12‥カメラ、14‥車両センサ、16‥方向指示器、18‥操作検出部、20‥通信装置、22‥車室内カメラ、30‥解析装置、30A‥解析装置、32‥取得部、34‥解析部、34A‥解析部、36‥出力部、50‥端末装置、52‥通信部、54‥処理部、54−1‥制御部、54−2‥出力部、56‥タッチパネル、58‥カメラ、100、100A‥評価サーバ、110‥解析結果取得部、120、120A‥評価部、150‥集計部

Claims (15)

  1. 車両の外観を撮像した画像を取得する取得部と、
    前記取得部により取得された前記画像に基づいて、前記車両の乗員の社会的な信用性を評価する評価ポイントを導出して付与する評価部と、
    を備える、評価システム。
  2. 前記取得部は、更に、前記車両の乗員に関する情報と、前記車両の走行に関する情報とを取得し、
    前記評価部は、前記取得部により取得された情報に更に基づいて前記評価ポイントを導出する、
    請求項1に記載の評価システム。
  3. 前記評価部は、前記乗員による所定の好ましい振る舞いを検出した場合、前記乗員をプラス評価し、
    前記乗員による所定の好ましくない振る舞いを検出した場合、前記乗員をマイナス評価する、
    請求項1または2に記載の評価システム。
  4. 前記評価部は、前記画像に基づいて前記振る舞いを類型化する、
    請求項3に記載の評価システム。
  5. 前記乗員に関する情報は、前記乗員の事故歴である、
    請求項2から4のうちいずれか1項に記載の評価システム。
  6. 前記評価部は、前記画像に基づいて、事故の発生の有無を推定する、
    請求項1から5のうちいずれか1項に記載の評価システム。
  7. 前記取得部は、さらに前記車両の走行に関するセンシング結果を取得し、
    前記評価部は、前記センシング結果に基づいて、事故の発生の有無を推定する、
    請求項1から6のうちいずれか1項に記載の評価システム。
  8. 前記評価部は、事故が発生したと判定し、且つ、前記事故の原因が乗員にあると判定した場合、前記乗員をマイナス評価する、
    請求項6または7に記載の評価システム。
  9. 前記取得部は、更に、前記車両に搭載された車載カメラにより車外を撮像した画像を取得し、前記車載カメラにより車外を撮像した画像に基づいて、前記乗員が前記車両の運転中に他の車両に対して道を譲ったことに関する情報を取得し、
    前記評価部は、前記取得部により前記道を譲ったことに関する情報が取得された場合に、前記乗員が好ましい振る舞いをしたとしてプラス評価する、
    請求項1から8のうちいずれか1項に記載の評価システム。
  10. 前記取得部は、車室内を撮像した画像を更に取得し、
    前記評価部は、前記車室内を撮像した画像に基づいて、前記乗員が前記車両の整理整頓に貢献した度合を評価し、
    前記度合が所定の上限度合以上である場合に、前記乗員が好ましい振る舞いをしたとして前記乗員をプラス評価し、
    前記取得部により取得された前記度合が所定の下限度合未満である場合に、前記乗員が好ましくない振る舞いをしたとして前記乗員をマイナス評価する、
    請求項1から9のうちいずれか1項に記載の評価システム。
  11. 前記取得部は、前記車室内を撮像した画像に基づいて、運転を担当する乗員が他の乗員に貢献した度合を取得し、
    前記評価部は、前記取得部により取得された前記度合が所定の度合以上である場合に、前記運転を担当する乗員が好ましい振る舞いをしたとして前記運転を担当する乗員をプラス評価する、
    請求項10に記載の評価システム。
  12. 前記取得部は、前記車室内を撮像した画像に基づいて、乗員が他の乗員に対してマナーを守って接したか否かを判定するための情報を取得し、
    前記評価部は、前記取得部により取得された前記マナーを守って接したか否かを判定するための情報に基づいて、前記乗員が好ましい振る舞いをしたか否かを判定し、前記乗員が好ましい振る舞いをしたと判定した場合、前記乗員をプラス評価する、
    請求項10または11に記載の評価システム。
  13. 前記乗員が所属する組織単位毎に、前記乗員の前記評価ポイントを集計する、集計部をさらに備える、
    請求項1から12のうちいずれか1項に記載の評価システム。
  14. コンピュータが、
    車両の外観を撮像した画像を取得し、
    取得された前記画像に基づいて、前記車両の乗員の社会的な信用性を評価する評価ポイントを導出して付与する、
    評価方法。
  15. コンピュータに、
    車両の外観を撮像した画像を取得させ、
    取得された前記画像に基づいて、前記車両の乗員の社会的な信用性を評価する評価ポイントを導出して付与させる、
    プログラム。

JP2018218359A 2018-11-21 2018-11-21 評価方法、およびプログラム Active JP7361466B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018218359A JP7361466B2 (ja) 2018-11-21 2018-11-21 評価方法、およびプログラム
US16/677,706 US11335103B2 (en) 2018-11-21 2019-11-08 Evaluation system, evaluation method, and storage medium
CN201911145850.XA CN111210100B (zh) 2018-11-21 2019-11-19 评价系统、评价方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018218359A JP7361466B2 (ja) 2018-11-21 2018-11-21 評価方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020086762A true JP2020086762A (ja) 2020-06-04
JP7361466B2 JP7361466B2 (ja) 2023-10-16

Family

ID=70726424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018218359A Active JP7361466B2 (ja) 2018-11-21 2018-11-21 評価方法、およびプログラム

Country Status (3)

Country Link
US (1) US11335103B2 (ja)
JP (1) JP7361466B2 (ja)
CN (1) CN111210100B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220042699A (ko) * 2020-09-28 2022-04-05 (주)에이아이엠컴 교통체증을 개선하는 양보운전에 대한 보상을 제공하는 양보운행보상시스템
JP2022063775A (ja) * 2020-10-12 2022-04-22 トヨタ自動車株式会社 制御装置、制御方法、及びプログラム
JPWO2022097218A1 (ja) * 2020-11-05 2022-05-12

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7309594B2 (ja) * 2019-12-18 2023-07-18 Kddi株式会社 合流支援情報配信装置、合流支援システム、合流支援情報配信方法及びコンピュータプログラム
JP7286691B2 (ja) * 2021-02-19 2023-06-05 本田技研工業株式会社 判定装置、車両制御装置、判定方法、およびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012150557A (ja) * 2011-01-17 2012-08-09 Toyota Central R&D Labs Inc 運転マナー啓発装置、システム、及びプログラム
JP2014164629A (ja) * 2013-02-27 2014-09-08 Casio Comput Co Ltd 情報処理装置、整理整頓度判定方法及びプログラム
JP2015108854A (ja) * 2012-02-15 2015-06-11 日本電気株式会社 情報処理システム、情報処理方法および情報処理プログラム
JP2015152955A (ja) * 2014-02-10 2015-08-24 Jx日鉱日石エネルギー株式会社 情報処理装置および情報処理方法
JP2018097679A (ja) * 2016-12-14 2018-06-21 株式会社ユーストカードットコム 中古車査定システムおよびプログラム
WO2018191421A1 (en) * 2017-04-11 2018-10-18 Alibaba Group Holding Limited Image-based vehicle damage determining method, apparatus, and electronic device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4441887B2 (ja) * 2006-03-31 2010-03-31 株式会社デンソー 自動車用ユーザーもてなしシステム
JP4995046B2 (ja) 2007-11-21 2012-08-08 株式会社日立製作所 自動車保険料設定システム
JP5013211B2 (ja) * 2008-08-21 2012-08-29 アイシン・エィ・ダブリュ株式会社 運転評価システム及び運転評価プログラム
US20150025917A1 (en) * 2013-07-15 2015-01-22 Advanced Insurance Products & Services, Inc. System and method for determining an underwriting risk, risk score, or price of insurance using cognitive information
US10460600B2 (en) * 2016-01-11 2019-10-29 NetraDyne, Inc. Driver behavior monitoring
JP2018005261A (ja) * 2016-06-27 2018-01-11 株式会社リコー フィードバック装置、フィードバック方法およびプログラム
CA2936854A1 (en) * 2016-07-22 2018-01-22 Edmond Helstab Methods and systems for assessing and managing asset condition
WO2018053175A1 (en) * 2016-09-14 2018-03-22 Nauto Global Limited Systems and methods for near-crash determination
US10127795B1 (en) * 2017-12-31 2018-11-13 Lyft, Inc. Detecting and handling material left in vehicles by transportation requestors
CN108335489A (zh) * 2018-03-11 2018-07-27 西安电子科技大学 高速公路车辆行为语义分析及异常行为监控系统及方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012150557A (ja) * 2011-01-17 2012-08-09 Toyota Central R&D Labs Inc 運転マナー啓発装置、システム、及びプログラム
JP2015108854A (ja) * 2012-02-15 2015-06-11 日本電気株式会社 情報処理システム、情報処理方法および情報処理プログラム
JP2014164629A (ja) * 2013-02-27 2014-09-08 Casio Comput Co Ltd 情報処理装置、整理整頓度判定方法及びプログラム
JP2015152955A (ja) * 2014-02-10 2015-08-24 Jx日鉱日石エネルギー株式会社 情報処理装置および情報処理方法
JP2018097679A (ja) * 2016-12-14 2018-06-21 株式会社ユーストカードットコム 中古車査定システムおよびプログラム
WO2018191421A1 (en) * 2017-04-11 2018-10-18 Alibaba Group Holding Limited Image-based vehicle damage determining method, apparatus, and electronic device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220042699A (ko) * 2020-09-28 2022-04-05 (주)에이아이엠컴 교통체증을 개선하는 양보운전에 대한 보상을 제공하는 양보운행보상시스템
KR102426917B1 (ko) * 2020-09-28 2022-07-29 (주)에이아이엠컴 교통체증을 개선하는 양보운전에 대한 보상을 제공하는 양보운행보상시스템
JP2022063775A (ja) * 2020-10-12 2022-04-22 トヨタ自動車株式会社 制御装置、制御方法、及びプログラム
JP7392624B2 (ja) 2020-10-12 2023-12-06 トヨタ自動車株式会社 制御装置、制御方法、及びプログラム
US11915497B2 (en) 2020-10-12 2024-02-27 Toyota Jidosha Kabushiki Kaisha Control device, control method and program
JPWO2022097218A1 (ja) * 2020-11-05 2022-05-12

Also Published As

Publication number Publication date
CN111210100A (zh) 2020-05-29
JP7361466B2 (ja) 2023-10-16
US20200160076A1 (en) 2020-05-21
CN111210100B (zh) 2024-04-05
US11335103B2 (en) 2022-05-17

Similar Documents

Publication Publication Date Title
JP7361466B2 (ja) 評価方法、およびプログラム
US11043044B2 (en) Systems and methods for vehicle condition inspection for shared vehicles
US10997607B1 (en) Method and system for comparing automatically determined crash information to historical collision data to detect fraud
JP7263233B2 (ja) 車両衝突を検出するための方法、システム及びプログラム
US20190042857A1 (en) Information processing system and information processing method
US20150006023A1 (en) System and method for determination of vheicle accident information
US20120245758A1 (en) Driving behavior detecting method and apparatus
WO2019039212A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP6660778B2 (ja) 迷惑運転検出装置及び迷惑運転検出方法
US20210287530A1 (en) Applying machine learning to telematics data to predict accident outcomes
CN107215266A (zh) 雾灯开启方法及汽车
US20170091872A1 (en) Apparatus and method for evaluating driving ability, and program for causing computer to perform method
CN114341962A (zh) 危险车辆显示系统、危险车辆显示装置、危险车辆显示程序以及计算机可读取的记录介质以及进行了记录的设备
TWM478859U (zh) 人車路交通事故影音自動分析系統
JP5362225B2 (ja) 運行記録機器及び運行状況記録方法
CN113799781A (zh) 信息处理装置、程序以及信息处理方法
CN106383918A (zh) 一种辨别紧急制动行为是否合理的系统及辨别方法
CN108515967B (zh) 一种基于车牌识别的防撞预警方法及装置
CN104715615B (zh) 位于交通路口的违章电子识别平台
US11263837B2 (en) Automatic real-time detection of vehicular incidents
CN108583426B (zh) 超车指示系统及其指示方法
Tsai et al. A safety driving assistance system by integrating in-vehicle dynamics and real-time traffic information
JP6955944B2 (ja) 車両管理サーバおよびコンピュータプログラム
US20220028007A1 (en) Insurance fee setting system
JP7249239B2 (ja) サービス提供サーバ、サービス提供システムおよびサービス提供方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221109

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230607

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231003

R150 Certificate of patent or registration of utility model

Ref document number: 7361466

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150