JP2018024340A - 運転性向判定装置および運転性向判定システム - Google Patents

運転性向判定装置および運転性向判定システム Download PDF

Info

Publication number
JP2018024340A
JP2018024340A JP2016157772A JP2016157772A JP2018024340A JP 2018024340 A JP2018024340 A JP 2018024340A JP 2016157772 A JP2016157772 A JP 2016157772A JP 2016157772 A JP2016157772 A JP 2016157772A JP 2018024340 A JP2018024340 A JP 2018024340A
Authority
JP
Japan
Prior art keywords
driving tendency
acceleration
vehicle
data
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016157772A
Other languages
English (en)
Inventor
板原 弘
Hiroshi Itahara
弘 板原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2016157772A priority Critical patent/JP2018024340A/ja
Priority to PCT/JP2017/014736 priority patent/WO2018029904A1/ja
Publication of JP2018024340A publication Critical patent/JP2018024340A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/16Control of vehicles or other craft
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • G09B9/052Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles characterised by provision for recording or measuring trainee's performance

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Educational Technology (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

【課題】車両の運転者の運転性向を判定する運転性向判定装置及び運転性向判定システムを提供する。
【解決手段】運転性向判定装置は、判定対象者の車両運転時に測定された車両の加速度と加加速度を示す情報を取得する取得部と、任意の運転者による車両運転時に測定された加速度と加加速度の時系列がプロットされた二次元平面を含む判定画像を用いて学習した人工知能機能を実装した演算部と、を備える。演算部は、判定対象者の車両運転時に測定された加速度及び加加速度の情報に基づき複数の判定画像を生成し、複数の判定画像を人工知能機能に入力することにより判定対象者の運転性向を判定する。
【選択図】図9

Description

本開示は、車両の運転者の運転性向を判定する運転性向判定装置及び運転判定システムに関する。
特許文献1は、加速度の変化量等に基づいて車両の運転操作状態を判定する車両用運転支援装置を開示する。
特許文献1の車両用運転支援装置は、車両の加速度の変化量に関連する第1関連値を算出する変化量算出手段と、車両の躍度に関連する第2関連値を算出する躍度算出手段と、車両の加速度の絶対値に関連する第3関連値を算出する加速度算出手段と、第1ないし第3関連値に基づいて車両の運転操作状態を判定する状態判定手段とを備える。
状態判定手段は、変化量算出手段により算出された第1関連値が所定値以上のときに、第1判定マップを用いて、第1関連値と第2関連値とに基づいて、車室内の質点の動きを表す振動モデルを用いて算出された、車両の加速度の変化量に対するその変化の終了時における質点の運動エネルギーの比に基づいて予め設定された判定基準に従って、車両の運転操作状態を判定する。また、第1関連値が所定値よりも小さいときは、状態判定手段は、第1判定マップとは異なる第2判定マップを用いて、第1関連値と第3関連値とに基づいて車両の運転操作状態を判定する。この構成により、車両の運転操作状態を、加速度の変化量の大きさに拘わらず精度良く判定することを可能としている。
特開2012−198345号公報
本開示は、車両の運転者の運転性向を判定できる運転性向判定装置及び運転性向判定システムを提供する。
本開示の第一の態様において、運転性向判定装置が提供される。運転性向判定装置は、判定対象者の車両運転時に測定された車両の加速度と加加速度を示す情報を取得する取得部と、任意の運転者による車両運転時に測定された加速度と加加速度の時系列がプロットされた二次元平面を含む判定画像を用いて学習した人工知能機能を実装した演算部と、を備える。演算部は、判定対象者の車両運転時に測定された加速度及び加加速度の情報に基づき複数の判定画像を生成し、複数の判定画像を人工知能機能に入力することにより判定対象者の運転性向を判定する。
本開示の第二の態様において、運転性向判定システムが提供される。運転性向判定システムは、車両の加速度を測定する測定装置と、測定装置から測定した加速度を示す情報を受信して前記運転性向判定装置へ転送する携帯端末と、携帯端末から前記加速度を示す情報を受信し、受信した情報に基づき人工知能機能を学習させる上記の運転性向判定装置と、を備える。
本開示の運転性向検出装置及び運転性向システムによれば、車両運転時に測定された加速度及び加加速度の情報に基づき車両の運転者の運転性向を判定することができる。
本開示の実施の形態1における運転性向判定システムの構成を示す図 実施の形態1におけるテレメータユニットの構成を示すブロック図 実施の形態1における携帯端末の構成を示すブロック図 実施の形態1におけるデータサーバ(運転性向判定装置)の構成を示すブロック図 実施の形態1における運転性向データの流れを説明するための図 勾配を下りながらの車両運転中に急ブレーキをかけたときの車両速度の変化を説明した図 勾配を下りながらの車両運転中に急ブレーキをかけたときの加速度の変化を説明した図 J(加加速度)−G(加速度)平面を説明するための図 J(加加速度)−G(加速度)平面上での危険運転と判定される領域を説明した図 AI(人工知能)機能における畳み込みニューラルネットワークを示す図 機械学習に用いる画像(J−G平面画像)の生成方法を説明した図 畳み込みニューラルネットワークの学習手順を説明した図 テレメータユニットから携帯端末への運転性向データの送信処理を示すフローチャート データサーバにおける運転性向判定処理を示すフローチャート 本開示の実施の形態2における運転性向判定システムの構成を示す図 実施の形態2における運転性向データの流れを説明するための図 本開示の実施の形態3における運転性向判定システムの構成を示す図 実施の形態3における運転性向データの流れを説明するための図
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、発明者(ら)は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
(実施の形態1)
[1−1.構成]
[1−1−1.システム構成]
以下、添付の図面を参照して本発明に係る運転性向判定システムの実施の形態を説明する。以下の実施形態で説明する運転性向判定システムは、車両の運転者の運転性向を検出するシステムである。図1に、本開示の一実施形態の運転性向判定システムの構成を示す。
図1に示すように、運転性向判定システム100は、テレメータユニット10と、携帯端末40と、データサーバ50とを含む。テレメータユニット10は、車両30内に配置され、車両30が運転されたときの車両30の挙動を検出し、その挙動から車両の運転者の運転傾向(または運転操作状態)を示すデータ(以下「運転性向データ」という)を求め、外部に送信する。携帯端末40は、テレメータユニット10から運転性向データを受信し、ネットワーク200を介してデータサーバ50へ送信する。データサーバ50は、受信した運転性向データに基づきデータベースを更新する。
以下、テレメータユニット10、携帯端末40およびデータサーバ50それぞれの要素の具体的な構成を説明する。
[1−1−2.テレメータユニット]
図2は、テレメータユニット10の構成を説明した図である。テレメータユニット10は、コントローラ11と、加速度センサ15と、WiFiやBluetooth(登録商標)等の通信規格にしたがい他の電子機器との無線通信を可能とする通信インタフェース18と、データ等を格納するメモリ17と、を備える。
コントローラ11はCPUやMPUで構成され、メモリ17に格納されたプログラムを実行することで、後述する所定の機能を実現する。コントローラ11で実行されるプログラムはネットワーク200を介して提供されてもよいし、CD−ROM等の記録媒体によって提供されてもよい。
加速度センサ15は、3つの直交方向(X、Y、Z方向)における車両30の加速度を検出するセンサである。ここで、車両30の幅方向をX方向とし、車両30の進行方向(前方方向)をY方向とし、車両30の上方向(天頂方向)をZ方向としている。
メモリ17は種々のデータを格納する記録媒体であり、例えば、フラッシュメモリのような半導体記憶素子で構成される。メモリ17は、コントローラ11により実行されるプログラムやデータを格納する。なお、メモリ17に代えて、着脱可能なメモリカード等の記録媒体や、ハードディスクを用いてもよい。
通信インタフェース18は、WiFiやBluetooth等の通信規格にしたがい無線通信を行うモジュールである。通信インタフェース18は、LTEや3G等の通信規格にしたがい通信を行なってもよい。なお、通信インタフェース18は無線通信に限らず有線による通信を行うものであっても良い。
[1−1−3.携帯端末]
携帯端末40はテレメータユニット10と通信可能である。また、携帯端末40は、データサーバ50に対して、ネットワーク200を介して情報を送信することができる。本実施形態では、携帯端末40の一例としてスマートフォンを想定するが、携帯端末40はPDA、携帯電話等であってもよい。
図3は、携帯端末40の構成を説明した図である。携帯端末40は、画像を撮影する撮像部42と、画像等の情報を表示する表示部43と、操作部45とを備えている。さらに、携帯端末40は、ネットワークに接続するために通信を行なう第1通信インタフェース48と、他の電子機器と通信を行うための第2通信インタフェース49と、を備える。さらに、携帯端末40は、データ等を格納するRAM46及びデータ格納部47と、携帯端末40の全体動作を制御するコントローラ41とを備える。携帯端末40は後述するように加速度センサを備えてもよい。
撮像部42は、CCDやCMOSイメージセンサ等の画像センサを備え、被写体を撮像して画像データを生成する。
表示部43は例えば液晶ディスプレイや有機ELディスプレイで構成される。操作部45は、表示部43の上面に重ねて配置され、ユーザによるタッチ操作を受け付けるタッチパネルを含む。操作部45はさらに操作ボタンを含む。操作ボタンには、携帯端末40の本体に物理的に設けられたボタンや、表示部43とタッチパネル機能により実現される仮想的なボタンが含まれる。
第1通信インタフェース48はネットワークと接続するための通信モジュールであり、LTEや3G等の通信規格にしたがい通信を行なう。第2通信インタフェース49は比較的近距離で他の電子機器と無線通信するための通信モジュールであり、WiFiやBluetooth等の通信規格にしたがい通信を行なう。第2通信インタフェース49はケーブルを介して他の電子機器と通信を行なうものでもよく、例えば、USB(Universal Serial Bus)等の規格に準拠してデータ通信を行ってもよい。
RAM46はプログラムやデータを一時的に記憶する記憶素子であり、コントローラ41の作業領域として機能する。データ格納部47は、プログラムや種々のデータを格納する記録媒体であり、ハードディスク、半導体メモリまたは着脱可能なメモリカード等の記録媒体で構成され得る。データ格納部47には、コントローラ41により実行されるプログラム(OS、アプリケーションプログラム47a)やデータが格納される。
コントローラ41はCPUやMPUで構成され、データ格納部47に格納されたアプリケーションプログラム47aを実行することで、後述する所定の機能を実現する。アプリケーションプログラム47aはネットワーク200を介して提供されてもよいし、CD−ROM等の記録媒体によって提供されてもよい。
[1−1−4.データサーバ]
図4は、データサーバ50の構成を説明した図である。データサーバ50は例えばパーソナルコンピュータのような情報処理装置で構成される。データサーバ50は、その全体動作を制御するコントローラ51と、画面表示を行う表示部53と、ユーザが操作を行う操作部55と、データやプログラムを記憶するRAM56及びデータ格納部57とを備える。表示部53は例えば、液晶ディスプレイや有機ELディスプレイで構成される。操作部55は、キーボード、マウス、タッチパネル等で構成される。
データサーバ50はさらに、プリンタ等の外部機器に接続するための機器インタフェース58と、ネットワークに接続するためのネットワークインタフェース59とを含む。機器インタフェース58は、USB、HDMI(登録商標)、IEEE1394等に準拠してデータ等の通信を行う通信モジュールである。ネットワークインタフェース59は、IEEE802.11、WiFi等の規格に準拠してデータ通信を行う通信モジュールである。
コントローラ51はCPUやMPUで構成され、データ格納部57に格納された所定の制御プログラム57aを実行することで所定の機能を実現する。コントローラ51で実行される制御プログラムはネットワーク200を介して提供されてもよいし、CD−ROM等の記録媒体で提供されてもよい。
RAM56はプログラムやデータを一時的に格納する記憶素子であり、コントローラ51の作業領域として機能する。データ格納部57は機能を実現するために必要なパラメータ、データ及びプログラムを記憶する記録媒体であり、コントローラ51で実行される制御プログラムや各種のデータを格納している。データ格納部57は例えばハードディスク(HDD)や半導体記憶装置(SSD)で構成される。データ格納部57には後述する機能を実現するための制御プログラム57aがインストールされている。コントローラ51はこの制御プログラム57aを実行することで、後述する種々の機能を実現する。データ格納部57は、また、運転者の運転性向に関するデータベース57bを格納する。データ格納部57はコントローラ51の作業領域としても機能する。
データベース57bは各ドライバに対する運転性向を示すデータ(以下「運転性向データ」という)を管理する。運転性向データは、運転者を識別するための運転者IDと、車両を識別するための車両IDと、データのサンプリング日時と、加速度を示す情報と、加加速度を示す情報とを含む。
[1−2.動作]
以上のように構成された運転性向判定システム100の動作を以下に説明する。
図5は、運転性向判定システム100における運転性向データの流れを説明するための図である。運転性向判定システムにおいて、テレメータユニット10は、車両30の加速度のデータに基づき運転者の運転性向を示す運転性向データを算出し(S1)、通信インタフェース18を介して携帯端末40に送信する(S2)。携帯端末40は、第2通信インタフェース49を介してテレメータユニット10から運転性向データを受信し(S2)、受信した運転性向データを第1通信インタフェース48を介してデータサーバ50へ送信する(S3)。データサーバ50は、携帯端末40から運転性向データを受信し(S3)、受信した運転性向データに基づきデータベース57bを更新する(S4)。以上のようにして、テレメータユニット10で検出された運転性向データがデータサーバ50に送信され、その運転性向データによりデータベース57bが更新される。データベース57bを参照することで、車両の運転者の運転性向を認識することができる。
[1−2−1.運転性向データ]
運転性向の判定に用いる運転性向データを説明する。
一般に車両運転時の加速度と運転性向とは相関関係があることが知られている。例えば、普通の街中での運転において、自動車でのおとなしい加速は最大でも0.15G程度であり、0.3Gを超えると、「乱暴な運転」であると判断できる。
図6は、緩やかな坂道を下りながらの車両運転中に急ブレーキをかけたときに測定された車両速度の変化を説明した図である。この例では、加速度センサにより、ミニバン(2名乗車)を緩やかな坂道を下る運転において、約50km/hの速度から通常の減速を行い、20km/hの速度に達した時点で急ブレーキをかけて一気に0km/hまで減速した場合の車両の加速度の変化を測定した。測定はサンプリング間隔20msで約11秒間行った。
図6において、20km/hの速度に達して急ブレーキがかけられるまでは「安全運転」であり、急ブレーキ開始後、停止するまでが「危険運転」となる。
図7は、図6に示すような車両の挙動に対して加速度センサにより測定された加速度の変化を説明した図である。プロットXはX方向(車両の幅方向)における加速度を示し、プロットYはY方向(車両の進行(前後)方向)における加速度を示し、プロットZはZ方向(車両の上方向)における加速度を示している。図7に示すように、時刻t1にて急ブレーキが開始されたときに、Y方向(進行方向)の加速度は大きく変化している。このとき、車両が坂道を緩やかに下っていることから、Y方向の加速度において0.3のオフセットが常時発生している。このオフセットの大きさは、坂道の傾斜角度や車両の重量によって変化する。このように、加速度にオフセットが発生することから、加速度のみでは、「安全運転状態」なのか「危険運転状態」なのかを精度よく判定することは難しい。
そこで、本発明者は、鋭意研究した結果、加速度に加えて加加速度(「躍度」ともいう)をも考慮して運転性向を判定することで精度よく、運転性向(すなわち、運転状態)を検出できることを見出した。なお、加加速度とは、加速度の変化率を示す量であり、加速度の微分により得られる。
図8Aは、図6に示す車両の挙動に対して所定期間(例えば、11秒間)の間、測定されたサンプリング点のY軸方向(進行方向)の加速度および加加速度の変化を二次元平面(以下「J−G平面」という)上にプロットした図である。図8Aに示すJ−G平面において、横軸は加加速度(J)を示し、縦軸が加速度(G)を示す。
本発明者は、このようなJ−G平面上において、車両の急激な挙動の変化により、サンプリング点のプロットが特異な軌跡を描くことを発見した。具体的には、図6、7に示すように安全運転がなされている状況においては、図8Bに示すように、J−G平面上で加加速度(J)および加速度(G)が比較的小さい範囲P(一点鎖線で示す領域)内にプロットが集中する。その後、急ブレーキがなされ、危険運転状況になると、J−G平面上で範囲Pを大きく超えて反時計周りにプロットの軌跡Qが描かれる。
このようにJ−G平面にサンプリング点をプロットした画像は、急ブレーキに対応して現れる軌跡Qのように、運転者の運転性向に対応した情報を含む。発明者はこの点に着目し、J−G平面の画像(以下「J−G平面画像」という)を、畳み込みニューラルネットワークを用いて機械学習させることで、J−G平面画像に基づき運転者の運転性向を分類できると考えた。このため、データサーバ50のコントローラ51はAI(人工知能)機能を実装している。以下、コントローラ51のAI機能について説明する。
[1−2−2.畳み込みニューラルネットワーク]
本実施形態のデータサーバ50のコントローラ51は、図9に示すように、AI機能において畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)モデルを用いる。この畳み込みニューラルネットワークに対して、運転者の長期間の運転性向データから生成した画像(J−G平面画像)を学習させる。畳み込みニューラルネットワークに対する機械学習に用いる画像(J−G平面画像)のデータを次のようにして求める。
図10は、機械学習に用いる画像(J−G平面画像)の生成方法を説明した図である。テレメータユニット10により、ある運転者に対する長期間(例えば、30時間)の加速度および加加速度のデータ(運転性向データ)300が測定されているとする。この長期間の運転性向データ300から、所定の期間(例えば11秒)毎に、その期間に測定された加速度及び加加速度のデータをJ−G平面上にプロットしてJ−G平面画像310を作成する。この所定期間は、図8Bに示すように、急ブレーキから車両停止までの車両の挙動の情報が1つのJ−G平面に含まれるように設定される(例えば11秒)。このとき、長期間(例えば、30時間)に亘って測定した運転性向データ300からは、複数のJ−G平面画像310が生成される(図10参照)。すなわち、一人の運転者に対して、長期間に亘って測定された運転性向データから複数のJ−G平面画像(J−G平面画像群)が生成される。そして、多数の運転者に対するJ−G平面画像群を畳み込みニューラルネットワークに機械学習させる。
図11は、畳み込みニューラルネットワークの学習手順を説明した図である。畳み込みニューラルネットワークの学習は、(1)非教師深層学習(クラシフィケ−ション)、(2)教師付深層学習(クラスタリングされたグループへの重み付け)、(3)推論の3つのステップの実行により行われる。それぞれのステップについて説明する。
(1)非教師深層学習(クラシフィケーション)
多数の運転者に対するJ−G平面画像群を畳み込みニューラルネットワークに入力する。畳み込みニューラルネットワークは、クラスタリングを行い、J−G平面画像群から自動的に特徴グループを構築(クラスタリング)する。例えば、図9に示すように、クラスタ(特徴グループ)C1、C2、C3が構築される。
(2)教師付深層学習(クラスタリングされたグループへの重み付け)
実際に事故を発生させた運転者のデータを教師信号として畳み込みニューラルネットワークに入力する。畳み込みニューラルネットワークは、高く応答するクラスタを事故発生確率の高い運転者のグループである「事故予備群」としてクラス分けする。すなわち、教師信号として、任意の運転者が事故を発生した履歴情報(事故発生日時等)を与えることにより、その運転性向のクラスタグループに事故予備群の重み付けを行う。例えば、クラスタC1が、事故発生確率の高い運転者のグループである「事故予備群」としてクラス分けされる。クラスタC2は、事故発生確率がやや高い運転者のグループである「やや危険運転群」としてクラス分けされる。クラスタC3が、安全運転を行う運転者のグループである「安全運転群」としてクラス分けされる。
(3)推論
上記(1)(2)の学習が終了後、畳み込みニューラルネットワークに対して任意のJ−G平面画像群を入力し、そのJ−G平面画像群に基づく判定結果を推論させ、推論結果の正誤を教師信号としてフィードバックする。このように、畳み込みニューラルネットワークに対して、J−G平面画像群よる推論をさせながら、推論と教師信号による補正を繰り返して、畳み込みニューラルネットワークの推論精度を高めていく。補正は、例えば、事故予備群として分類されたクラスタC1について、推論結果が間違いの場合、クラスタC1内のサブクラスタC1−1の重みを下げて、推論結果が正解の場合は、クラスタ内のサブクラスタ(例えば、C1−2)の重みを上げることにより行う。例えば、ある対象者についての推論結果としてその対象者が「事故予備群」にクラス分けされたが、実際にはその対象者が事故を起こしていない場合、その推論が誤りであったことを教師信号でフィードバックする。これにより、クラスタC1−1、C1−2が更新される。
このように、画像データを繰り返し入力し、推論を実施させながら適宜推論の正解とエラーを教示しながら深層学習を進め、Similarity Matchingによりクラスタグループを細分化して、事故予備群をより高確度に抽出できるように収束させていく。推論結果の正答率が所定の確率以上になると、推論ステップを終了し、畳み込みニューラルネットワークの学習を終了する。
以上のようにして十分な量のJ−G平面画像を用いて畳み込みニューラルネットワークを学習させる。
[1−2−2.テレメータユニットからのデータ送信処理]
図12は、テレメータユニット10から携帯端末40への運転性向データの送信処理を示すフローチャートである。以下、図12を参照し、テレメータユニット10における運転性向データの送信処理を説明する。図12に示す処理は主としてテレメータユニット10のコントローラ11により実行される。
車両運転中、テレメータユニット10において、加速度センサ15により所定のサンプリング間隔(例えば20msec)で車両30の加速度(G)が検出(測定)され、検出(測定)された加速度を示す情報がメモリ17に蓄積されている。
図12に示す処理が開始されると、テレメータユニット10のコントローラ11は、メモリ17から、所定期間(例えば1ヶ月)内に測定された加速度(G)の情報を読み出して取得する(S11)。
コントローラ11は、読み出したY方向の各加速度(G)からサンプリング点における加加速度(J)を算出する(S12)。各サンプリング点の加速度と加加速度の情報から運転性向データを生成する。
その後、コントローラ11は、運転性向データを、通信インタフェース18を介して携帯端末40へ送信する(S14)。このとき、テレメータユニット10のメモリ17に蓄積されていた加速度のデータに基づき求められた運転性向データ、すなわち、ある期間に測定された運転性向データが携帯端末40へ送信される。
携帯端末40は、テレメータユニット10から第2通信インタフェース49を介して運転性向データを受信し、受信した運転性向データを、第1通信インタフェース48を介して、ネットワーク200に接続するデータサーバ50へ送信する。データサーバ50は、ネットワークインタフェース59を介して運転性向データを受信し、受信した運転性向データをデータベース57bに蓄積する(図5参照)。
[1−2−3.運転性向の判定]
図13のフローチャートを参照して、データサーバ50における運転性向判定処理を説明する。
利用者は、データサーバ50の操作部55を介して運転性向の判定を行いたい対象者を指定する情報(ID番号、氏名等)を入力する。データサーバ50のコントローラ51は、対象者を指定する情報を受けると、データベース57bにアクセスしてその対象者に対する、長期間(例えば30時間分)の運転性向データを取得し、取得した運転性向データに基づきJ−G平面画像群を作成する(S21)。
コントローラ51は、対象者について生成されたJ−G平面画像群を畳み込みニューラルネットワークに入力し、対象者に対する運転性向を判定する(S22)。畳み込みニューラルネットワークは、対象者のJ−G平面画像に基づき分類した結果を、J−G平面画像毎にその対象者の運転性向の判定結果として出力する。コントローラ51は、畳み込みニューラルネットワークから得られた、運転性向の判定結果を示す情報を表示部53に出力する(S23)。
例えば、畳み込みニューラルネットワークに対して運転性向判定のために複数のJ−G画像を入力したときに、J−G画像毎に、いずれかのクラスタ(例えば、C1〜C3)に分類され、分類されたクラスタを示す情報が出力される。そのような場合、入力したJ−G画像の総数に対する、出力されたクラスタ毎の比率を求め、判定結果として表示部に表示してもよい。具体的には、畳み込みニューラルネットワークに入力したJ−G画像群の画像毎に出力された結果を、クラスタ毎にカウントする。そして、判定のために入力したJ−G画像の総数に対するクラスタC3に分類された結果の数の比率(%)を「安全運転率」(事故を起こす確率がきわめて低いことを示す率)として求める。さらに、J−G画像群の総数に対するクラスタC2に分類された結果の数の比率(%)を、「やや危険運転率」(事故を起こす確率がやや高いことを示す率)とする。さらに、J−G画像群の総数に対するクラスタC1に分類された結果の数の比率(%)を、「危険運転率」(事故を起こす確率が非常に高いことを示す率)とする。そして、運転性向の判定結果として、それぞれの項目に対する比率を表示部53に表示させてもよい。例えば、「安全運転率:80% やや危険運転率:15% 危険運転率:5%」と表示してもよい。
なお、運転性向の判定結果は、データ格納部57に格納されてもよいし、ネットワークインタフェース59や機器インタフェース58を介して他の機器に送信されてもよい。
以上のように、本実施の形態のデータサーバ50は、対象者のJ−G平面画像群からその対象者の運転性向を判定することができる。
[1−3.効果等]
以上のように、本実施の形態のデータサーバ50(運転性向判定装置の一例)は、判定対象者の車両運転時に測定された車両の加速度と加加速度を示す情報を取得する取得部(ネットワークインタフェース59、データ格納部57等)と、任意の運転者による車両運転時に測定された加速度と加加速度の時系列がプロットされた二次元平面を含む判定画像を用いて学習した人工知能機能を実装したコントローラ51(演算部)と、を備える。コントローラ51は、判定対象者の車両運転時に測定された加速度及び加加速度の情報に基づき複数のJ−G平面画像(判定画像の一例)を生成し、複数のJ−G平面画像を人工知能機能に入力することにより判定対象者の運転性向を判定する。
また、運転性向判定システム100は、車両の加速度を測定するテレメータユニット10(測定装置の一例)と、テレメータユニット10から測定した加速度を示す情報を受信して転送する携帯端末40と、携帯端末40から加速度を示す情報を受信し、受信した情報に基づき人工知能機能を学習させるデータサーバ50と、を備える。
以上のように本実施形態のデータサーバ50は、判定対象者に対して測定された車両の加速度と加加速度を二次元平面上にプロットしたJ−G平面画像を、事前に学習させた畳み込みニューラルネットワークに入力することで、判定対象者の運転性向の判定結果を得ることができる。特に本実施の形態では、人工知能機能を学習させる際に入力する情報として、複数のJ−G平面画像、すなわち、長期間に亘って測定された運転性向データを用いている。このため、それらのデータにおいて運転者の運転の傾向がより確実に含まれていることから、精度のよい判定が可能となる。
画像ビッグデータの深層学習に関する様々な手法やナレッジ、API等が運転性向の深層学習や事故発生確率推論等で応用できるようになり、特別なアルゴリズム開発を必要とすることなく、事故を起こし易いドライバの運転性向を自動クラスタ分類でき、クラスタと事故との関連づけも自動化できる。かつ最終目的である推論(事故予測)まで含めて、共通したプラットホーム上で実施できるようになる。
(実施の形態2)
図14は、本開示の実施の形態2における運転性向判定システム100bの構成を示す図である。実施の形態1では、テレメータユニット10と、携帯端末40と、データサーバ50とで運転性向判定システム100を構成した。これに対して本実施の形態の運転性向判定システム100bは、車両に搭載されたテレメータユニット10と、データサーバ50とで構成される。すなわち、テレメータユニット10は、携帯端末40を介さず、直接、データサーバ50へデータを送信する。なお、テレメータユニット10は、データサーバ50と通信するために、通信インタフェース18を介してネットワーク200に接続することができる。
図15は、実施の形態2における運転性向データの流れを説明するための図である。同図に示すように、テレメータユニット10は、運転性向データを算出し(S41)、算出した運転性向データをデータサーバ50に送信する(S42)。データサーバ50は、受信したデータに基づきデータベース57bを更新する(S43)。
テレメータユニット10は、所定期間(例えば1ケ月)毎に運転性向データをデータサーバ50に送信してもよい。または、テレメータユニット10は、ユーザによる指示や、車両の所定の動作(エンジンスタート等)があったときにデータを送信するようにしてもよい。
(実施の形態3)
本実施の形態では、携帯端末40が、テレメータユニット10の上記機能を備えた構成を説明する。すなわち、実施の形態1では、テレメータユニット10が車両30の加速度を検出し、運転性向データを算出したが、携帯端末40が車両30のこれらの機能を実行してもよい。
図16は、本開示の実施の形態3における運転性向判定システム100cの構成を示す図である。本実施形態の運転性向判定システム100cは、携帯端末40と、データサーバ50とで構成する。本実施形態の携帯端末40は、直交する三方向(XYZ方向)の加速度が検出できる加速度センサを備えている。携帯端末40は、車両30の進行方向(前方方向)をY方向とし、車両の上方向をZ方向とするように車両30内に配置される。携帯端末40は、そのようにして車両30内に配置された状態で、車両30の運転中における車両30の加速度を定期的に測定し、記録する。
図17は、実施の形態3における運転性向データの流れを説明するための図である。同図に示すように、携帯端末40は、前述の方法にしたがい、測定した加速度データから運転性向データを算出し(S51)、算出した運転性向データをデータサーバ50に送信する(S52)。データサーバ50は、受信した運転性向データに基づきデータベース57bを更新する(S53)。
携帯端末40は、所定期間(例えば1ケ月)毎に運転性向データをデータサーバ50に送信してもよいし、または、ユーザによる所定の操作(送信指示等)があったときにデータを送信するようにしてもよい。
(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態1〜3を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態1〜3で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施の形態を例示する。
実施の形態1〜3では、運転性向検出装置の一例としてテレメータユニット10を説明した。運転性向検出装置はテレメータユニット10に限定されない。携帯端末40やデータサーバ50を運転性向検出装置として構成することもできる。
例えば、実施の形態1では、図5に示すように、運転性向データはテレメータユニット10において生成されたが、テレメータユニット10以外の装置すなわち携帯端末40またはデータサーバ50において生成されてもよい。
より具体的には、運転性向データを携帯端末40において算出する場合は、テレメータユニット10は、検出した加速度のデータの時系列を携帯端末40に送信する。携帯端末40は、第2通信インタフェース49(取得部の一例)を介して加速度データの時系列を受信し、作業のためデータ格納部47に記憶する。携帯端末40は、受信した加速度データに基づき加加速度(J)を算出し、加速度(G)および加加速度(J)を示すデータを、運転性向データとして、データサーバ50に送信する(図12のステップS12、S13参照)。このような構成により、携帯端末40は運転性向検出装置として動作することができる。
また、運転性向データをデータサーバ50において算出する場合は、テレメータユニット10は、加速度データを携帯端末40に送信する。携帯端末40は、受信した加速度データをデータサーバ50に転送する。データサーバ50は、ネットワークインタフェース59(取得部の一例)を介して加速度データの時系列を受信し、作業のためデータ格納部57に記憶する。データサーバ50は、受信した加速度データに基づき加加速度(J)を算出し、加速度および加加速度を示すデータから運転性向データを生成し、生成した運転性向データでデータベース57bを更新する。このような構成により、データサーバ50は運転性向検出装置として動作することができる。
上記の実施形態では、コントローラ11、41、51は、CPUまたはMPUを含み、所定のプログラム(ソフトウェア)を実行することで後述する所定の機能を実現する例を説明した。このようにコントローラ11、41、51の機能はハードウェアとソフトウェアの協働により実現してもよいし、ハードウェア回路のみで実現してもよい。例えば、コントローラ11、41、51は、CPU、MPU、DSP、FPGA、ASIC、ASSP等で実現することができる。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、車両の運転者の運転性向を判定する装置に適用できる。
10 テレメータユニット
11 テレメータユニットのコントローラ
15 加速度センサ
17 メモリ
18 通信インタフェース
30 車両
40 携帯端末
41 携帯端末のコントローラ
47a アプリケーションプログラム
48 第1通信インタフェース
49 第2通信インタフェース
50 データサーバ
51 データサーバのコントローラ
57a 制御プログラム
59 ネットワークインタフェース
100 運転性向判定システム
200 ネットワーク

Claims (5)

  1. 判定対象者の車両運転時に測定された車両の加速度と加加速度を示す情報を取得する取得部と、
    任意の運転者による車両運転時に測定された加速度と加加速度の時系列がプロットされた二次元平面を含む判定画像を用いて学習した人工知能機能を実装した演算部と、を備え、
    前記演算部は、
    前記判定対象者の車両運転時に測定された加速度及び加加速度の情報に基づき複数の判定画像を生成し、
    前記複数の判定画像を前記人工知能機能に入力することにより前記判定対象者の運転性向を判定する、
    運転性向判定装置。
  2. 前記演算部は、第1の期間内に測定された車両の加速度を示す情報と、それに対応する加加速度を示す情報とを用いて、前記第1の期間よりも短い第2の期間毎に、前記第2の期間内に測定された車両の加速度と加加速度の組の時系列を二次元平面上にプロットすることにより前記複数の判定画像を生成する、
    請求項1に記載の運転性向判定装置。
  3. 前記加速度は所定のサンプリング期間毎に測定され、
    前記第2の期間は、前記加速度と前記加加速度の複数の組のプロットを含む期間に設定される、請求項1に記載の運転性向判定装置。
  4. 前記人工知能機能は、畳み込みニューラルネットワークモデルを含む、請求項1に記載の運転性向判定装置。
  5. 車両の加速度を測定する測定装置と、
    測定装置から測定した加速度を示す情報を受信して転送する携帯端末と、
    前記携帯端末から前記加速度を示す情報を受信し、受信した情報に基づき前記人工知能機能を学習させる請求項1ないし4のいずれかに記載の運転性向判定装置と、を備えた、
    運転性向判定システム。
JP2016157772A 2016-08-10 2016-08-10 運転性向判定装置および運転性向判定システム Pending JP2018024340A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016157772A JP2018024340A (ja) 2016-08-10 2016-08-10 運転性向判定装置および運転性向判定システム
PCT/JP2017/014736 WO2018029904A1 (ja) 2016-08-10 2017-04-11 運転性向判定装置および運転性向判定システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016157772A JP2018024340A (ja) 2016-08-10 2016-08-10 運転性向判定装置および運転性向判定システム

Publications (1)

Publication Number Publication Date
JP2018024340A true JP2018024340A (ja) 2018-02-15

Family

ID=61161916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016157772A Pending JP2018024340A (ja) 2016-08-10 2016-08-10 運転性向判定装置および運転性向判定システム

Country Status (2)

Country Link
JP (1) JP2018024340A (ja)
WO (1) WO2018029904A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021059909A1 (ja) 2019-09-27 2021-04-01 オムロン株式会社 データ生成システム、学習装置、データ生成装置、データ生成方法及びデータ生成プログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110348338A (zh) * 2019-06-26 2019-10-18 深圳市微纳集成电路与系统应用研究院 基于深度学习的驾驶员辅助驾驶后视镜及包含其的系统
US11586705B2 (en) 2019-12-02 2023-02-21 International Business Machines Corporation Deep contour-correlated forecasting

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256598A (ja) * 2000-03-08 2001-09-21 Honda Motor Co Ltd 危険箇所報知システム
WO2007107360A1 (en) * 2006-03-22 2007-09-27 Gm Global Technology Operations, Inc. Driver- specific vehicle subsystem control method and apparatus
JP4992303B2 (ja) * 2006-06-07 2012-08-08 トヨタ自動車株式会社 運転指向推定装置
JP5052117B2 (ja) * 2006-12-19 2012-10-17 有限会社ミューテック 運転支援装置及びその方法
JP2012081897A (ja) * 2010-10-13 2012-04-26 Toyota Motor Corp 走行支援装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021059909A1 (ja) 2019-09-27 2021-04-01 オムロン株式会社 データ生成システム、学習装置、データ生成装置、データ生成方法及びデータ生成プログラム

Also Published As

Publication number Publication date
WO2018029904A1 (ja) 2018-02-15

Similar Documents

Publication Publication Date Title
US10414408B1 (en) Real-time driver monitoring and feedback reporting system
US11501572B2 (en) Object behavior anomaly detection using neural networks
US10083626B1 (en) Student driver feedback system allowing entry of tagged events by instructors during driving tests
US11749117B1 (en) Facial recognition technology for improving driver safety
JP2020524632A (ja) 自律車両運転イベントに応答して乗車者フィードバックを取得するシステムおよび方法
CN111225603B (zh) 提供与用户活动相对应的压力指数的电子设备和方法
WO2018029904A1 (ja) 運転性向判定装置および運転性向判定システム
WO2017158658A1 (ja) 運転解析装置及び運転解析システム
KR102517228B1 (ko) 사용자의 입력에 대한 외부 전자 장치의 응답 시간에 기반하여 지정된 기능을 제어하는 전자 장치 및 그의 방법
US11758096B2 (en) Facial recognition for drivers
US10373523B1 (en) Driver organization and management for driver's education
EP3725217A1 (en) Electronic device and method for measuring heart rate
US20170344123A1 (en) Recognition of Pickup and Glance Gestures on Mobile Devices
KR102532230B1 (ko) 전자 장치 및 그 제어 방법
US20180134215A1 (en) Method and device for generating driving assistance information
US10475470B2 (en) Processing result error detection device, processing result error detection program, processing result error detection method, and moving entity
JP2023040789A (ja) 危険検知装置及び危険検知方法
JP2021156889A (ja) 車両体感測定評価方法、装置、電子機器、記憶媒体及びコンピュータプログラム
JP6167426B1 (ja) 運転解析装置及び運転解析システム
KR102570783B1 (ko) 전자 장치 및 이를 이용한 생체 신호에 기초하여 개인화된 생체 정보 제공 방법
WO2017081851A1 (ja) 運転性向検出装置および運転性向検出システム
US12002364B1 (en) Facial recognition technology for improving driver safety
KR20230104335A (ko) 작업 관리 시스템 및 그 작업 관리 방법
JP2023135475A (ja) 情報処理装置、情報処理方法、プログラム及び記憶媒体
US11961395B2 (en) Driving assistance device, driving assistance method, and storage medium in which program is stored