JP2023147200A - 危険通知方法及び実装するためのシステム - Google Patents

危険通知方法及び実装するためのシステム Download PDF

Info

Publication number
JP2023147200A
JP2023147200A JP2023025084A JP2023025084A JP2023147200A JP 2023147200 A JP2023147200 A JP 2023147200A JP 2023025084 A JP2023025084 A JP 2023025084A JP 2023025084 A JP2023025084 A JP 2023025084A JP 2023147200 A JP2023147200 A JP 2023147200A
Authority
JP
Japan
Prior art keywords
data
vehicle
control parameter
occupant
log
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023025084A
Other languages
English (en)
Inventor
大輔 橋本
Daisuke Hashimoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Woven by Toyota Inc
Original Assignee
Woven by Toyota Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Woven by Toyota Inc filed Critical Woven by Toyota Inc
Publication of JP2023147200A publication Critical patent/JP2023147200A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/162Decentralised systems, e.g. inter-vehicle communication event-triggered
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/20Steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/35Road bumpiness, e.g. potholes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2756/00Output or target parameters relating to data

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】車両のドライバを含む乗員の異常な挙動を識別することができる自動危険通知システム及びその使用方法が提供される。【解決手段】危険を識別する方法が、車両に取り付けられた第1センサから制御パラメータデータを受信することを含み、制御パラメータデータは車両の乗員の挙動に関連付けられる。本方法は、さらに、制御パラメータデータを乗員のパフォーマンス分布と比較して、制御パラメータが異常挙動を示すか否かを判別することを含む。本方法は、さらに、制御パラメータが異常挙動を示すという判別に応答して、車両に取り付けられた第2センサから収集されるべきセンサデータを識別することを含む。本方法は、さらに、収集されたセンサデータに基づいてログデータを生成することを含む。本方法は、さらに、ログデータを外部装置に送信することを含む。【選択図】図7

Description

本願は、全体として参照により本明細書に取り込まれる、2021年10月8日に出願された米国出願第17/497846号明細書に関する。
車両のドライバは、車両の経路に沿って危険を回避する態様で車両を運転する。加えて、車両の乗員は車両の窓の外側の危険を見る。他の車両の乗員及びドライバに危険を通知することは、事故のリスク又は他の車両への被害を低減するのに役立つ。いくつかの手法では、ドライバ又は乗員が、観察車両内のユーザインタフェース(UI)を使用して危険情報を入力し、他の車両に通知する。いくつかの手法では、ドライバ又は乗員が、モバイルデバイスを使用して危険情報を入力し、他の車両に通知する。これら手法は、危険情報を提供するためにユーザ入力に頼る。
図1は、いくつかの実施形態に従った危険通知システムのブロック図である。 図2は、いくつかの実施形態に従った検出車両システムの一部の機能図である。 図3は、いくつかの実施形態に従った検出車両システムの一部の機能図である。 図4は、いくつかの実施形態に従った検出車両システムの機能図である。 図5は、いくつかの実施形態に従って危険を検出する方法のフローチャートである。 図6は、いくつかの実施形態に従った乗員パラメータのプロットである。 図7は、いくつかの実施形態に従った危険通知システムを実装する方法のフローチャートである。 図8は、いくつかの実施形態に従ったユーザインタフェースの図である。 図9は、いくつかの実施形態に従った危険通知を実装するためのシステムのブロック図である。
本開示の態様は、以下の詳細な説明を添付の図面と共に読むときに最も良く理解される。業界の標準的な慣行に従って、様々な特徴が一定の縮尺では描かれていないことに留意されたい。実際、様々な特徴の寸法は、説明を明確にするために、任意に増減されうる。
以下の開示では、提供される主題の種々の特徴を実装するための多くの種々の実施形態又は例が提供される。本開示を単純化するために、構成要素、値、動作、材料、配置等の具体例が以下に記載される。当然のことながら、これらは、単なる例であり、限定することを意図していない。他の構成要素、値、動作、材料、配置等が考えられる。例えば、以下の説明における第2の特徴の上方又は上の第1の特徴の形成は、第1の特徴及び第2の特徴が直接接触して形成される実施形態を含むことができ、第1の特徴及び第2の特徴が直接接触しないように第1の特徴と第2の特徴との間に追加の特徴が形成される実施形態も含むことができる。加えて、本開示では、様々な例において参照符号が繰り返し用いられうる。この繰り返しは、単純化又は明確化を目的としており、それ自体、説明される様々な実施形態及び/又は構成の間の関係を決定するものではない。
車両によって走行される道に沿って危険の事前通知を行うことは、車両のドライバが、事故を引き起こし又は車両へのリスキーな操作を行うことなく危険を回避するのに役立つ。いくつかの手法では、危険についての通知はモバイルアプリケーションを通して提供される。しかしながら、これらモバイルアプリケーションは、危険通知を入力するために人的相互作用に頼る。いくつの例では、このことは、通知を行うユーザインタフェース(UI)に情報を入力する間、ドライバの注意を散漫にする。加えて、危険の場所は、危険情報の入力が行われるときのモバイルデバイスの場所に設定されることが多い。このことは、危険の真の場所を識別する精度を低くする。いくつかの例では、人がUIに情報を入力し損なって、危険が報告されない。いくつかの例では、モバイルアプリケーションにおいて危険を識別するための選択肢が限られ、このことは、他の車両のドライバが容易に危険を回避することができないリスクを増大させる。
本説明では、車両のドライバを含む乗員の異常な挙動を識別することができる自動危険通知システム及びその使用方法が提供される。異常な挙動を検出したことに応答して、危険通知システムは、車両内のセンサを使用して、車両の周囲の環境に危険が存在するか否かを判別する。危険が検出された場合、他の車両のドライバに危険を通知するために、ログデータが、収集され、符号化及び他の車両への流布のためにサーバに送信される。この結果、ドライバは、システムが人間の入力に頼って危険の存在を報告することなく、危険の事前通知を受ける。
いくつかの実施形態では、危険及び危険の場所が車両UIに表示される。いくつかの実施形態では、危険の画像が被通知車両に提供される。いくつかの実施形態では、被通知車両は、自動的に又は被通知車両の乗員からの入力に基づいて、危険の存在の確認、危険についての更新情報又は他の適切な情報を提供するように構成される。
本説明では自動車に焦点が当てられているが、当業者は、本説明が、電車、航空機又は他の適切な車両のような他の車両に適用可能であることを理解するだろう。本説明は、単に車両の人間のドライバではなく、車両内の自動運転システムに通知することにも適用可能である。
図1は、いくつかの実施形態に従った危険通知システム100のブロック図である。危険通知システム100の説明は、ドライバによって制御される自動車に焦点を当てる。しかしながら、当業者は、エンジニアによって運転される電車、又は他の移動車両のような他の車両及びオペレータが本開示の範囲内であることを認識するだろう。また、本開示は車道における危険について言及する。当業者は、本開示が車道における危険に限定されないことを理解するだろう。例えば、いくつかの実施形態では、危険は、全地形対応車(ATV)のトレイル、電車の線路、車両によって走行される他の小道のような経路に沿って存在する。さらに、いくつかの実施形態では、危険は、実際に車道においてではなく、車道に隣接して存在する。
危険通知システム100は検出車両システム110を含み、検出車両システム110は、車道に危険が存在するか否かを判別し、危険が存在すると判別したことに応答して危険についての情報を捕捉する。検出車両システム110は、危険についての情報を捕捉し、情報をサーバに送信する。危険通知システム100はサーバ140を更に備え、サーバ140は、危険情報を受信し、危険情報を符号化し、サーバ140に接続された一つ又は複数の他の車両に危険情報を広めるように構成される。危険通知システム100は更に被通知車両システム150を更に含み、被通知車両システム150は、符号化された危険情報を受信し、被通知車両の乗員160に危険の存在及び場所を通知するように構成される。いくつかの実施形態では、被通知車両はさらに乗員160に危険の種類を通知するように構成される。いくつかの実施形態では、車両は、第1の危険について検出車両システム110として機能することができ、第1の危険とは異なる第2の危険について被通知車両システム150として機能することができる。
検出車両システム110は電子制御ユニット(ECU)120を含み、ECU120は、乗員監視カメラ112、フロントカメラ114、全地球測位システム(GPS)116及びマップ118からデータを受信するように構成される。ECU120は、異常状況検出器122、データ指定子(data specifier)132、ログ収集器134及びログ送信機136を含む。異常状況検出器122は、車両制御モニタ124、異常物体検出器126、異常シーン検出器128及び視線検出器130を含む。
いくつかの実施形態では、ECU120は注目エリア認識器を更に含み、注目エリア認識器は乗員の視線の位置を判別するように構成される。いくつかの実施形態では、ECU120は位置特定部を更に含み、位置特定部は、GPS116及びマップ118からデータを受信し、検出され且つ/又は既知の物体及び/又は道路位置に対する車両の位置並びに車両の姿勢及び状態を判別するように構成される。姿勢は車道のような参照点に対する車両の向きである。いくつかの実施形態では、車両の位置は車両の位置ベクトルも意味する。車両の姿勢及び状態は車両の速度及び進行方向を意味する。いくつかの実施形態では、車両の姿勢及び状態は、車両の速度ベクトル、加速度ベクトル及びジャークベクトルも意味する。いくつかの実施形態では、位置ベクトル、速度ベクトル、加速度ベクトル及びジャークベクトルは角度ベクトルを含む。いくつかの実施形態では、車両の状態は、車両のエンジン又はモータが作動しているか否かも意味する。
乗員監視カメラ112は観察車両(viewing vehicle)のドライバ又は他の乗員の画像を捕捉するように構成される。乗員監視カメラ112は車両に接続される。いくつかの実施形態では、乗員監視カメラ112は可視光カメラを含む。いくつかの実施形態では、乗員監視カメラ112は赤外線(IR)カメラ又は別の適切なセンサを含む。いくつかの実施形態では、乗員監視カメラ112は、種々の大きさである乗員の少なくとも一方の眼の画像を捕捉すべく、車両に対して移動可能である。乗員の両眼の画像を捕捉することが好ましいが、いくつかの乗員は一つのみの眼を有し、乗員の頭部が乗員監視カメラ112から逸れたいくつかの例では、乗員の眼の一方のみが乗員監視カメラ112によって捕捉可能である。いくつかの実施形態では、乗員監視カメラ112は自動的に調整される。いくつかの実施形態では、乗員監視カメラ112は手動で調整可能である。いくつかの実施形態では、捕捉される画像は乗員の少なくとも一方の眼を含む。いくつかの実施形態では、乗員監視カメラ112は、乗員の種々の領域の画像を捕捉するための複数の画像捕捉装置を含む。いくつかの実施形態では、乗員監視カメラ112は車両内の種々の場所に配設される。例えば、いくつかの実施形態では、第1の乗員監視カメラ112が車両の中央領域におけるバックミラーに近接して配設され、第2の乗員監視カメラ112がドライバ側のドアに近接して配設される。当業者は、車両の運転を妨げない、乗員監視カメラ112についての他の場所が本開示の範囲内であることを認識するだろう。いくつかの実施形態では、乗員監視カメラ112からのデータは、他のデータとの同期を助けるタイムスタンプ又は他のメタデータを含む。
当業者は、いくつかの実施形態において車両システム110が複数の乗員を監視するための追加のカメラを含むことを理解するだろう。追加のカメラの各々は、上述された乗員監視カメラ112と同様である。例えば、いくつかの実施形態では、一つ又は複数の監視カメラが前方座席の乗客の少なくとも一方の眼の画像を捕捉するために車両内に配置される。いくつかの実施形態では、一つ又は複数の監視カメラが後部座席の乗客の少なくとも一方の眼の画像を捕捉するために車両内に配置される。いくつかの実施形態では、追加のカメラは、車両が対応する前方座席の乗客又は後部座席の乗客を検出したことに応答したときにのみ作動される。いくつかの実施形態では、車両のオペレータが追加のカメラを選択的に非作動にすることができる。追加のカメラを含む実施形態では、捕捉される画像は依然として視線検出器130に送信され、視線検出器130は、車両の監視された乗員の各々についての視線結果を生成することができる。
センサ114は、車両の周囲の環境の画像のような情報を捕捉するように構成される。いくつかの実施形態では、センサ114は、可視光カメラ、IRカメラを含む。いくつかの実施形態では、センサ114は、光検出及び測距(LiDAR)センサ、無線検出及び測距(RADAR)センサ、音波探知機(ソナー)センサ又は別の適切なセンサによって置換され又はこれらが更に加えられる。いくつかの実施形態では、センサ114は、車両上の他の場所に配設された追加のカメラを含む。例えば、いくつかの実施形態では、追加のカメラが、観察車両の左右の環境の大部分を検出すべく、車両の両側に配設される。車両の乗員が車両のサイドウィンドウの外側を見ることができるので、追加のカメラを用いて車両の周囲の環境の大部分を検出することは、車両の乗員によって見られる異常物体又は異常シーンを検出する精度を高めるのに役立つ。例えば、いくつかの実施形態では、追加のカメラは、車両の後方の環境の大部分を検出すべく、車両の背側に配設される。この情報は、ドライバ以外の車両の乗員がリアウィンドウの外側で見ることができる異常物体を捕捉するのに役立つ。いくつかの実施形態では、センサ114からのデータは、センサ114からのデータを乗員監視カメラ112からのデータと同期させるのを助けるべく、タイムスタンプ又は他のメタデータを含む。
GPS116は、車両の場所を判別するように構成される。観察車両の場所を知ることは、異常物体又は異常シーンを、乗員の注意を引く方向と、マップ118上の判別された場所に関する物体及びエリアとに関連付けるのに役立つ。車両の進行方向を知ることは、視線データの生成を支援すべく、車両の乗員が見ている方向を予測するのに役立つ。観察車両の速度を知ることは、車両の乗員が物体を見る機会をどのくらい有していたかを判別するのに役立つ。例えば、いくつかの実施形態では、速く移動する車両において乗員が長時間見ている物体又はシーンは、遅く移動する車両において同じ時間だけ見られた物体又はシーンよりも異常物体として識別される可能性が高くなる。速く移動する車両では、シーン又は物体が車両の乗員に見える可能な時間の合計は、遅く移動する車両よりも短い。車両の速度を考慮することによって、シーン又は物体が見える最大可能時間のうち、乗員がシーン又は物体を見る時間の割合が、シーン又は物体が乗員の注意を強く引いた否かを判別するのに役立つ。乗員をより強く引き付けることは、シーン又は物体が乗員に見える時間の高い割合で乗員がシーン又は物体を見ることをもたらす。この結果、種々の時間における車両の場所を知ることは、異常である可能性がある物体及びシーンに乗員の挙動を関連付けることを助ける。
マップ118は、車道と車道に沿った既知の物体とに関する情報を含む。いくつかの実施形態では、マップ118は、車両の場所及び進行方向を判別するためにGPS116と併せて使用可能である。いくつかの実施形態では、マップ118はサーバ140のような外部装置から受信される。いくつかの実施形態では、マップ118はフロントカメラ114及び/又はGPS116からの情報に基づいて周期的に更新される。いくつかの実施形態では、マップ118は、外部装置から受信された情報に基づいて周期的に更新される。いくつかの実施形態では、マップ118は、同時ローカリゼーション及びマッピング(SLAM)アルゴリズムによってセンサデータから生成される。マップ118を含むことは、物体が異常であるか否かを判別するのに役立つ。例えば、いくつかの実施形態では、車両の乗員は長時間に亘って既知の道路標識を見るだろう。しかしながら、道路標識は異常物体ではなく、危険通知を生成すべきではない。既知の物体を有するマップ118を含むことは、誤検出の危険通知のリスクを低減するのに役立つ。
以下の説明では、簡潔の目的で、ドライバに関する情報の分析に主に焦点が当てられる。当業者は、この説明が車両の前方座席の乗客又は後部座席の乗客のような他の乗員にも適用可能であることを理解するだろう。
異常状況検出器122は、ドライバの正常な挙動のプロファイルを生成し、正常な挙動からの異常な偏差が検出されたか否かを判別する。いくつかの実施形態では、正常な挙動のプロファイルは複数の挙動に関する。いくつかの実施形態では、挙動は、視線方向の挙動、走行速度の挙動、加速/制動の挙動、操舵の挙動又は他の適切な挙動の少なくとも一つを含む。視線方向の挙動は、車両が走行している方向にドライバの注意がどのくらい向けられているかに関する。例えば、ドライバは車両のサイドウィンドウの外側を見ることが多い。走行速度の挙動は、ドライバが車両を正常に運転する速度に関する。例えば、ドライバは車道に沿って制限速度超又は制限速度未満で正常に走行する。加速/制動の挙動は、ドライバがアクセル又はブレーキを正常に使用しているかに関する。例えば、ドライバは正常にゆっくり加速し若しくはアクセルを強く踏み、又はドライバは正常にゆっくり惰性で停止し若しくはブレーキを強く踏む。操舵の挙動は車両のステアリングホイールの回転の大きさ及び急さに関する。例えば、ドライバはステアリングホイールを大きく回転させることが多く、又はドライバはステアリングホイールを小さく回転させることによって大きなターンを行うことが多い。いくつかの実施形態では、要因間の相関関係がプロファイルを開発するのに使用される。例えば、いくつかの実施形態では、車両の速度と操舵の挙動とが組み合わされる。すなわち、速い車両速度において、ドライバは遅い車両速度よりも少ない程度だけステアリングホイールを回転させる。ドライバの正常な挙動のプロファイルを使用して、異常状況検出器122は、異常物体又は異常シーンが車両の周囲の環境に存在している可能性が高いか否かを判別すべく、正常な挙動とは著しく異なる行為をドライバが行っているか否かを判別することができる。
正常な挙動のプロファイルに基づいて、一つ又は複数のパフォーマンス曲線(performance curve)がドライバについて開発される。いくつかの実施形態では、各ドライバは固有のパフォーマンス曲線を有し、異常状況検出器122はドライバの身元に基づいて異常物体又は異常シーンの存在の可能性を判別するように構成される。いくつかの実施形態では、ドライバの身元は乗員監視カメラ112のデータに基づいて判別される。いくつかの実施形態では、ドライバの身元は、例えばUIを介してドライバから受信した入力に基づいて判別される。いくつかの実施形態では、ドライバの身元は、車両の所有者として登録された人のような公式記録に基づいて判別される。いくつかの実施形態では、検出されたパフォーマンスが、パフォーマンス曲線によって判別される正常な挙動から三以上の標準偏差であることに応答して、ドライバのパフォーマンスが異常であると見なされる。パフォーマンス曲線に関する追加情報が図6に関して以下に提供される。いくつかの実施形態では、検出車両システム110は交通情報受信機を更に含み、交通情報受信機は、道路交通情報通信システム(VICS(登録商標))又は交通メッセージチャネル(TMC)のような走行情報を、検出車両システム110の外側から受信する。検出車両システム110が、検出車両システム110の近くの場所でいくつかの異常状況が起きていることを示す情報を受信すると、異常状況検出器は、異常状況が起きていることを判別するための閾値を低くすることができる。検出車両システム110における情報と交通情報とを組み合わせることは、誤検出を低減するのに役立つ。
車両制御モニタ124は、センサデータを受信し、車両の現在の運転に関するログを制御するように構成される。いくつかの実施形態では、センサデータは、車両速度、加速、ジャーク、制動、操舵、ピッチング、ローリング、ヨーイング、ハザードランプの点滅、ホーンビープ音又は他の適切な情報に関する情報を含む。いくつかの実施形態では、車両制御モニタ124によって収集されたデータは、ドライバに関連付けられたパフォーマンス曲線を連続的に更新するのに使用される。車両制御モニタ124は、受信されたセンサデータのいくつかがドライバの正常な挙動からの異常な偏差を示すか否かを判別するように構成される。
異常物体検出器126は、センサ114からセンサデータを受信して、異常物体が車道に配設されているか否かを判別するように構成される。いくつかの実施形態では、異常物体検出器126は、さらに、異常物体が車道に沿って又は車道に近接して存在しているか否かを判別するように構成される。いくつかの実施形態では、センサ114からのセンサデータは画像を含み、異常物体検出器126は、例えば学習済みのニューラルネットワークを用いて、受信された画像に対する画像認識を実行して異常物体を識別するように構成される。いくつかの実施形態では、異常物体検出器126は、識別された物体を、識別された物体が異常物体であるか否かを判別するのに役立つ、GPS116及びマップ118からの情報と比較するように構成される。いくつかの実施形態では、異常物体検出器126は、落下物のような物体、例えば、タイヤ、自動車部品等、動物、路面の窪み、交通規制板、緊急車両、ハザードランプ点灯車両、又は他の適切な物体を異常物体として識別するように構成される。
異常シーン検出器128は、センサ114からセンサデータを受信して、異常シーンが車両の周囲の環境に配設されているか否かを判別するように構成される。異常シーンは、異常な態様で配置された正常な物体を異常シーンが含むことができるという点で異常物体とは異なる。いくつかの実施形態では、異常シーン検出器128は、2台以上の車両が互いに接触していること又は車両が複数の落下物に囲まれていることを検出したことに応答して、車両事故が発生したと判別するように構成される。いくつかの実施形態では、異常シーン検出器128は、近接する複数の建設車両を検出したことに基づいて建設が発生していると判別するように構成される。いくつかの実施形態では、異常シーン検出器128は、車両が車道に隣接して配設され且つ他の車両よりも著しく遅く移動し又は移動していないと判別したことに基づいて、車両が路肩に駐車していると判別するように構成される。いくつかの実施形態では、異常シーン検出器128は、ハザードランプ点灯車両を検出したことに基づいて、異常シーンを判別するように構成される。いくつかの実施形態では、異常シーン検出器128は、学習済みのニューラルネットワークを介したような画像認識を使用して、異常シーンを識別するための基準が存在するか否かを判別するように構成される。
視線検出器130は乗員監視カメラ112からデータを受信して視線検出結果を生成するように構成される。視線検出結果は、乗員の眼が見ている方向を含む。いくつかの実施形態では、方向は方位角及び仰角を含む。方位角及び仰角を含むことは、ドライバが水平線に対して平行及び水平線に対して垂直の両方を見ている方向の判別を可能とする。いくつかの実施形態では、視線検出結果は深度情報を更に含む。深度情報は、ドライバの眼の視軸が収束するドライバからの推定距離である。深度情報を含むことは、ドライバと、ドライバが視線を集中させている物体との間の距離の判別を可能とする。深度情報を方位角及び仰角と組み合わせることは視線検出結果の精度を高める。捕捉された画像が乗員の片眼のみを含むいくつかの実施形態では、深度情報を判別することが困難であるので、方位角及び仰角のみが視線検出器130によって判別される。いくつかの実施形態では、視線検出器130は、さらに、センサ114からデータを受信し、方位角及び仰角に基づいて、検出された視線をセンサ114からの画像のピクセル位置と関連付けるように構成される。
いくつかの実施形態では、視線検出器130は車両に取り付けられていない。いくつかの実施形態では、視線検出器130は観察車両の乗員に取り付けられる。例えば、いくつかの実施形態では、視線検出器130は、スマートグラス、別のスマート衣類、又は着用者の視線情報を判別することができる他の斯かる装置を含む。スマートグラスを利用するいくつかの実施形態では、歩行者、自転車に乗っている人々、又は車両にいない他の人々から視線データを収集することができる。危険通知システム100は関心の物体を識別するのを助けるためにこの視線データを利用することができる。
視線検出器130は、また、ドライバが、異常に長い時間、異常な方向、例えば車両のサイドウィンドウの外側を見ているか否かを判別するように構成される。例えば、いくつかの実施形態では、事故が発生した場合又は警察車両が存在する場合に、ドライバは、車両を運転しつつ、車両のサイドウィンドウの外側の事故又は警察車両を見るだろう。
いくつかの実施形態では、異常物体検出器126、異常シーン検出器128及び視線検出器130の各々は、車両の運転の全期間の間、例えば車両のエンジン又はモータが作動しているときに作動される。いくつかの実施形態では、異常物体検出器126、異常シーン検出器128又は視線検出器130の少なくとも一つは、異常挙動が検出されたと車両制御モニタ124が判別したことに応答して作動される。
データ指定子132は、異常状況と総称される異常挙動、異常物体又は異常シーンが検出されたという判別を受信するように構成される。データ指定子132は、受信された情報を分析して、受信されたデータに基づいてセンサ114からのどのセンサデータが収集されるべきかを判別するように構成される。例えば、ドライバによる異常な操舵の挙動が検出されたいくつかの実施形態では、データ指定子132は、センサ114のフロントカメラからの画像データが捕捉されるべきであると判別するように構成される。さらに、データ指定子132は、検出された異常状況の時刻に基づいて、センサ114からのデータが収集されるべき期間を判別するように構成される。
いくつかの実施形態では、データ指定子132は、検出された異常状況に関連する、受信されたセンサデータの領域を判別するように構成される。いくつかの実施形態では、受信されたセンサデータの領域は視線検出器130からの視線データに基づいて識別される。いくつかの実施形態では、受信されたセンサデータの領域は、例えば異常物体検出器126又は異常シーン検出器128によってセンサデータに対して実行された画像認識に基づいて識別される。いくつかの実施形態では、データ指定子132は、異常状況のログの情報量を低減すべく、センサデータからの受信された画像をトリミングし又はセンサデータが画像ではない場合にはセンサデータから無関係なデータを除去するように構成される。いくつかの実施形態では、データ指定子は、ナンバープレート、人間の顔等のような個人情報をセンサデータから除去するように構成される。
ログ収集器134はデータ指定子132からデータを受信するように構成される。いくつかの実施形態では、ログ収集器134は、データ指定子132によって提供された情報に基づいて、センサ114、GPS116又は異常状況検出器122から直接データを受信するように構成される。ログ収集器134は、また、GPS116又はマップ118からの位置情報、センサ114からの画像情報、データ指定子132からのトリミングされ若しくは低減された情報、視線検出器130からの視線データ、異常状況が検出された時刻に関するタイムスタンプ情報、又は他の適切な情報などの何の情報が危険の種類及び場所を識別するために有用であるかを判別するように構成される。
ログ収集器134は、受信され且つ相互に関連付けられたデータ、例えばトリミングされた画像と位置データとに基づいてログデータを生成する。ログ収集器134は、また、収集されたデータの同期を支援するため且つサーバ140内のキューの優先度のためにタイムスタンプ情報をログデータに関連付ける。いくつかの実施形態では、ログ収集器134は、トリミングされた画像に関連付けられた世界座標を更に含むログデータを生成する。いくつかの実施形態では、ログ収集器134は、トリミングされた画像に関連付けられたマップ位置を更に含むログデータを生成する。いくつかの実施形態では、ログ収集器134は、異常状況の種類及び異常状況の場所を判別する精度を高めることを支援するための追加の情報を含む。
上記の説明は、センサ114からの画像に基づいてログデータを生成することに関するが、当業者は、ログ収集器134が単に画像に基づいてログデータを生成することに限定されないことを理解するだろう。いくつかの実施形態では、ログ収集器134は、レーダ、ライダ又は他の適切なセンサのような、車両に取り付けられた他のセンサからの情報に基づいてログデータを生成するように構成される。乗員がスマートグラスを着用しているいくつかの実施形態では、ログ収集器134は、さらに、スマートグラスから受信された情報に基づいてログデータを生成するように構成される。
ログ送信機136は、ログ収集器134からログデータを受信し、ログデータをサーバ140に送信するように構成される。いくつかの実施形態では、ログ送信機136はログデータを無線で送信するように構成される。いくつかの実施形態では、ログ送信機136はログデータを有線接続を介して送信するように構成される。いくつかの実施形態では、ログ送信機136はログデータを被通知車両システム150に直接送信するように構成される。いくつかの実施形態では、ログ送信機136は、乗員がアクセス可能なモバイルデバイスにログデータを送信するように構成され、次いで、モバイルデバイスはログデータをサーバ140に送信するように構成される。いくつかの実施形態では、ログ送信機136はブルートゥース(登録商標)又は別の適切な無線技術を用いてモバイルデバイスにログデータを送信するように構成される。いくつかの実施形態では、ECU120は、モバイルデバイスからサーバ140へのデータ転送レートがログ送信機136からサーバ140への転送レートよりも高いか否かを判別するように構成される。モバイルデバイスからサーバ140へのデータ転送レートがより高いという判別に応答して、ログ送信機136は、サーバ140に送信されるべきログデータをモバイルデバイスに送信するように構成される。モバイルデバイス160からサーバ140へのデータ転送レートがより低いという判別に応答して、ログ送信機136は、ログデータをモバイルデバイス160に転送することなくログデータを車両システム110からサーバ140に直接送信するように構成される。
いくつかの実施形態では、検出車両システム110は、車両に取り付けられたセンサからのセンサデータを記憶するように構成されたメモリを更に含む。いくつかの実施形態では、メモリは、さらに、以前の異常状況に関連付けられた情報を記憶するように構成される。いくつかの実施形態では、以前の異常状況に適合する異常状況を検出したことに応答して、データ指定子132は、適合する異常状況に基づいて結果を提供するように構成される。いくつかの実施形態では、検出車両システム110は、さらに、異常状況検出器122からの判別された異常状況に適合する異常状況に関する情報を検出車両がサーバ140から受信したか否かを判別するように構成される。いくつかの実施形態では、判別された異常状況に関する情報を検出車両が既に受信していると判別したことに応答して、検出車両システム110はサーバへのログデータの送信を止めるように構成される。サーバ140への余分な情報の送信を回避することは、サーバ140に送信されるデータを低減するのに役立ち、検出車両による電力消費を最小にするのに役立つ。いくつかの実施形態では、以前の要求を記憶することはキャッシングと呼ばれる。当業者は、そのデータについての将来の要求がより迅速に処理され得るようにハードウェア又はソフトウェアを用いてデータを記憶することとしてキャッシングを理解するだろう。
サーバ140は、ログ送信機136からログデータを受信するように構成されたログデータ受信機142を含む。いくつかの実施形態では、ログデータ受信機142はモバイルデバイスからログデータを受信するように構成される。サーバ140は、ログデータを符号化するように構成されたログエンコーダ144を更に含む。サーバ140は、符号化されたログデータを被通知車両システム150に送信するように構成されたログ転送機146を更に含む。
ログデータ受信機142はログ送信機136からログデータを受信するように構成される。いくつかの実施形態では、ログデータ受信機142はモバイルデバイスからログデータを受信するように構成される。いくつかの実施形態では、ログデータ受信機142はログデータを無線で受信するように構成される。いくつかの実施形態では、ログデータ受信機142はログデータを有線接続を介して受信するように構成される。いくつかの実施形態では、ログデータ受信機142は、ログデータが受信された時刻についてのタイムスタンプをログデータに添付するように構成される。
ログエンコーダ144は、予め定められた符号化プロトコルに従って、受信されたログデータを符号化するように構成される。予め定められた符号化プロトコルに従ってログデータを符号化することは、被通知車両システム150が被通知車両システム150による使用のためにログデータを信頼性高く復号できることを確実なものとするのに役立つ。いくつかの実施形態では、ログエンコーダ144は、ログデータの圧縮、画像の符号化、サムネイル画像の作成又は他の適切な符号化プロトコルを実行するように構成される。いくつかの実施形態では、ログエンコーダ144はログデータの暗号化を実行するように構成される。いくつかの実施形態では、ログエンコーダ144は、さらに、超解像を実行して、データを乗員160にとってより見やすくするように構成される。当業者は、超解像が低解像度画像から高解像度画像を受信する工程であることを理解するだろう。ログデータの解像度を高めることは誤検出又は検出漏れを低減するのに役立つ。
いくつかの実施形態では、サーバ140は、受信されたログデータを記憶するためのデータベースを更に含む。いくつかの実施形態では、ログデータは、ログエンコーダ144による符号化の前及び/又は後にデータベースに記憶される。いくつかの実施形態では、ログデータは優先度付きキュー(priority queue)でデータベースに記憶される。いくつかの実施形態では、優先度キューの優先度は、異常状況が検出された時刻、ログデータがログデータ受信機142によって受信された時刻、異常状況の種類、検出車両のドライバの身元、又は他の適切な優先度の基準に基づいて決定される。
ログ転送機146は、符号化されたログデータをログエンコーダ144から受信するように構成される。ログ転送機146は、符号化されたログデータを被通知車両システム150に送信するように構成される。いくつかの実施形態では、ログ転送機146は、被通知車両システム150に加えて又は被通知車両システム150の代わりに、被通知車両の乗員がアクセス可能なモバイルデバイスに、符号化されたログデータを送信するように構成される。いくつかの実施形態では、ログ転送機146は、符号化されたログデータを無線で転送するように構成される。いくつかの実施形態では、ログ転送機146は、有線接続を介して、符号化されたログデータを送信するように構成される。いくつかの実施形態では、ログ転送機146は、符号化されたログデータと共に符号化プロトコル情報を送信するように構成される。符号化されたログデータについての符号化プロトコル情報を送信することは、モバイルデバイス又は被通知車両システム150が、被通知車両システム150による使用のために、符号化されたログデータを正確に復号することを助ける。
いくつかの実施形態では、サーバ140は複数の車両から位置情報を受信するように構成される。いくつかの実施形態では、サーバ140は複数の車両からナビゲーション計画を受信するように構成される。いくつかの実施形態では、ログ転送機146は、符号化されたログデータの送信を、異常状況の予め定められた距離内にある車両のみに限定するように構成される。いくつかの実施形態では、ログ転送機146は、符号化されたログデータの送信を、異常状況の予め定められた距離内を車両が通過していることを示すナビゲーション計画を有する車両のみに限定するように構成される。符号化されたログデータを受信する車両を限定することは、異常状況による影響を受けないであろう、サーバに接続された車両に無関係なデータが転送されることを低減するのに役立つ。
いくつかの実施形態では、サーバ140は、新たに識別された異常状況に関連付けられたログデータのみを送信するように構成される。すなわち、異常状況がサーバ140によって既に報告されていた場合、異常状況は再び報告されない。異常状況の繰り返しの報告を制限することは、サーバ140に接続された車両によって受信される余分なデータを低減するのに役立つ。
被通知車両システム150はECU152を含む。ECU152は、符号化されたログデータをログ転送機146から受信するように構成されたログデコーダ154を含む。ECU152は、復号されたログデータに基づいて異常状況の視覚的表現を生成するように構成されたログビジュアライザ(log visualizer)156を更に含む。被通知車両システム150はUI158を更に含み、UI158は、復号されたログデータの視覚的表現を表示し、又は復号されたログデータに基づいて乗員160への通知を提供するように構成される。
ログデコーダ154は、符号化されたログデータからの情報をログ転送機146から受信し、受信したデータを復号するように構成される。いくつかの実施形態では、ログデコーダ154は無線で情報を受信するように構成される。いくつかの実施形態では、ログデコーダ154は有線接続を介して情報を受信するように構成される。いくつかの実施形態では、ログデコーダ154は、サーバ140によって使用される予め定められた符号化プロトコルとマッチする予め定められた復号プロトコルに従って、符号化されたログデータを復号するように構成される。いくつかの実施形態では、ログデコーダ154は、受信された符号化プロトコル情報に基づいて、符号化されたログデータを復号するように構成される。
ログビジュアライザ156は、復号されたログデータを受信し、復号されたログデータに基づいて、検出された異常状況の視覚的表現を生成するように構成される。いくつかの実施形態では、ログビジュアライザ156は異常状況の画像を生成するように構成される。いくつかの実施形態では、ログビジュアライザ156はライダの点群データを視覚化するように構成される。当業者は、点群データが、検出器からの各点の距離に基づいて三次元形状又は三次元物体を表すのに使用可能な空間における一組のデータ点を含むことを認識するだろう。いくつかの実施形態では、ログビジュアライザ156は、例えば復号されたログデータにおける視線データに基づいて、異常状況に関連付けられた生成画像の部分を強調表示するように構成される。いくつかの実施形態では、ログビジュアライザ156は、異常状況を表すアイコンを生成するように構成される。いくつかの実施形態では、ログビジュアライザ156は、異常状況の視覚的表現に関連付けられた視覚的又は聴覚的な警告を生成するように構成される。いくつかの実施形態では、ログビジュアライザ156は、異常状況の位置を含むマップを生成するように構成される。
UI158は、ログビジュアライザ156から情報を受信し、乗員160への通知を提供するように構成される。いくつかの実施形態では、乗員160はドライバである。いくつかの実施形態では、乗員160はドライバではない。いくつかの実施形態では、UI158はタッチスクリーンを含む。いくつかの実施形態では、UI158はスマートフォンの一部である。いくつかの実施形態では、UI158は、被通知車両システム150を含む車両に組み込まれる。いくつかの実施形態では、UI158は、乗員160からの入力を受信するように構成される。いくつかの実施形態では、UI158は、異常状況の確認を示す入力を受信するように構成される。いくつかの実施形態では、UI158は、異常状況についての追加情報を要求する乗員160からのデータ要求に対応する入力を受信するように構成される。いくつかの実施形態では、追加情報は、異常状況の周りの被通知車両の経路を定めるための更新されたナビゲーション計画を含む。例えば、異常状況が車両事故である場合、いくつかの実施形態では、UI158は、車両事故の場所を回避して車両事故に関連する通行を回避するナビゲーション計画についての要求を受信する。いくつかの実施形態では、UI158は、通知が正確であったか否かについて又は乗員が通知を気に入ったか否かについて、乗員160からフィードバックを受信する。このフィードバックを含むことは、誤検出を抑制するために、ログ転送機146及びログビジュアライザ156をニューラルネットワークとして学習させるのに役立つ。
いくつかの実施形態では、UI158は異常状況を回避するために被通知車両のドライバに提案を提供するように構成される。いくつかの実施形態では、提案は視覚的又は聴覚的な提案を含む。いくつかの実施形態では、提案は、通行の特定の車線を回避するための助言を含む。いくつかの実施形態では、提案は、特定の道路を回避するための助言を含む。いくつかの実施形態では、提案は、被通知車両のための新たなナビゲーション経路についての助言を含む。いくつかの実施形態では、提案は、車両の速度を下げるための助言を含む。
被通知車両システム150が自動運転車両の一部であるいくつかの実施形態では、被通知車両システム150は、自動運転車両の走行計画を自動的に更新して異常状況を回避するように構成される。いくつかの実施形態では、更新された走行計画は、自動運転車両が、車線を変更し、異なる道路を通り若しくは速度を下げるための指示、又は他の適切な指示を含む。
当業者は、危険通知システム100に対する修正が本開示の範囲内であることを理解するだろう。例えば、いくつかの実施形態では、検出車両システム110は無線ネットワークのようなネットワークを介してログデータを被通知車両システム150に直接送信することができる。いくつかの実施形態では、検出車両内の乗員のモバイルデバイスは無線ネットワークのようなネットワークを介してログデータを被通知車両の乗員のモバイルデバイスに直接送信することができる。
車両の周囲の環境において検出された異常状況に関する情報を自動的に識別して広めることによって、他の車両システムは、危険データに関連付けられた正確な位置情報を有する危険データを受信することができる。自動的な検出及び流布は、また、異常状況が発生しており且つドライバが既に車両の運転から部分的に気を逸らしているときに、検出車両のドライバの注意散漫を最小にするのに役立つ。
図2は、いくつかの実施形態に従った検出車両システムの一部の機能図200である。いくつかの実施形態では、検出車両システムは検出車両システム110(図1)を含む。いくつかの実施形態では、図200の機能は異常物体検出器126(図1)を用いて実装される。いくつかの実施形態では、図200の機能はシステム900(図9)を用いて実装される。
センサデータ210は、車両に取り付けられた一つ又は複数のセンサから収集される。いくつかの実施形態では、一つ又は複数のセンサは車両と一体である。いくつかの実施形態では、一つ又は複数のセンサの少なくとも一つは車両から分離可能である。いくつかの実施形態では、一つ又は複数のセンサの少なくとも一つはスマートグラスを含む。いくつかの実施形態では、一つ又は複数のセンサはセンサ114(図1)に対応する。
センサデータ210は異常物体検出器220によって受信される。いくつかの実施形態では、異常物体検出器220は異常物体検出器126(図1)に対応する。異常物体検出器220は物体検出ニューラルネットワーク222を含む。物体検出ニューラルネットワーク222は、センサデータ210を分析して、センサデータ210内に物体が存在するか否かを判別するように構成される。いくつかの実施形態では、物体検出ニューラルネットワーク222は、さらに、識別された物体とマップデータ、例えばマップ118(図1)からのマップデータとを比較して、識別された物体が異常物体であるか否かを判別するように構成される。物体検出ニューラルネットワーク222は、物体認識のために使用可能な完全に又は部分的に学習されたニューラルネットワークを含む。いくつかの実施形態では、物体検出ニューラルネットワーク222は完全畳み込みニューラルネットワークを含む。いくつかの実施形態では、物体検出ニューラルネットワーク222は、更新されたパラメータ及び重みを外部装置から受信するように構成される。いくつかの実施形態では、物体検出ニューラルネットワーク222は、更新されたパラメータ及び重みを周期的に受信するように構成される。いくつかの実施形態では、物体検出ニューラルネットワーク222は、検出車両システムを含む車両の乗員からの要求に応答して、更新されたパラメータ及び重みを受信するように構成される。いくつかの実施形態では、セマンティックセグメンテーションのニューラルネットワークが物体検出ニューラルネットワーク222の代わりに使用される。
物体検出ニューラルネットワーク222は、物体が存在している230か否かに関する判別を出力するように構成される。いくつかの実施形態では、物体検出ニューラルネットワーク222は、物体が異常物体であるという判別に応答してのみ、物体が存在しているという判別を出力するように構成される。物体検出ニューラルネットワーク222は、さらに、物体が存在しているという判別に応答して、物体の種類232を出力するように構成される。物体検出ニューラルネットワーク222は、さらに、物体が存在しているという判別に応答して、物体の位置234を出力するように構成される。
当業者は、機能図200に対する修正が本開示の範囲内であることを理解するだろう。例えば、いくつかの実施形態では、物体検出ニューラルネットワーク222は視線データを例えば視線検出器130(図1)から受信して物体の位置の判別を支援するように構成される。いくつかの実施形態では、物体検出ニューラルネットワーク222はGPSデータを例えばGPS116(図1)から受信して物体の位置の判別を支援するように構成される。当業者は、追加の修正も本開示の範囲内であることを理解するだろう。
図3は、いくつかの実施形態に従った検出車両システムの一部の機能図300である。いくつかの実施形態では、検出車両システムは検出車両システム110(図1)を含む。いくつかの実施形態では、図300の機能は異常シーン検出器128(図1)を用いて実装される。いくつかの実施形態では、図300の機能はシステム900(図9)を用いて実装される。
センサデータ310は、車両に取り付けられた一つ又は複数のセンサから収集される。いくつかの実施形態では、一つ又は複数のセンサは車両と一体である。いくつかの実施形態では、一つ又は複数のセンサの少なくとも一つは車両から分離可能である。いくつかの実施形態では、一つ又は複数のセンサの少なくとも一つはスマートグラスを含む。いくつかの実施形態では、一つ又は複数のセンサはセンサ114(図1)に対応する。
センサデータ310は異常シーン検出器320によって受信される。いくつかの実施形態では、異常シーン検出器320は異常シーン検出器128(図1)に対応する。異常シーン検出器320はシーン分類器のニューラルネットワーク322を含む。シーン分類器のニューラルネットワーク322は、センサデータ310を分析して、車両の周囲の環境が異常シーン又は物体の組合せを含むか否かを判別するように構成される。いくつかの実施形態では、シーン分類器のニューラルネットワーク322は、センサデータ310からの複数の画像を受信して、点滅ライト、例えば、緊急車両のライト、車両のハザードランプ又は他の点滅ライトが車両の周囲の環境に存在するか否かを判別するように構成される。いくつかの実施形態では、シーン分類器のニューラルネットワーク322は、さらに、識別されたシーンとマップデータ、例えばマップ118(図1)からのマップデータとを比較して、識別されたシーンが異常シーンであるか否かを判別するように構成される。シーン分類器のニューラルネットワーク322は、物体認識のために使用可能な完全に又は部分的に学習されたニューラルネットワークを含む。いくつかの実施形態では、シーン分類器のニューラルネットワーク322は完全畳み込みニューラルネットワークを含む。いくつかの実施形態では、シーン分類器のニューラルネットワーク322は、更新されたパラメータ及び重みを外部装置から受信するように構成される。いくつかの実施形態では、シーン分類器のニューラルネットワーク322は、更新されたパラメータ及び重みを周期的に受信するように構成される。いくつかの実施形態では、シーン分類器のニューラルネットワーク322は、検出車両システムを含む車両の乗員からの要求に応答して、更新されたパラメータ及び重みを受信するように構成される。
シーン分類器のニューラルネットワーク322は、シーンの種類330に関する判別を出力するように構成される。いくつかの実施形態では、シーン分類器のニューラルネットワーク322は、シーンが異常であるという判別に応答してのみ、シーンの種類330を出力するように構成される。
当業者は、機能図300に対する修正が本開示の範囲内であることを理解するだろう。例えば、いくつかの実施形態では、シーン分類器のニューラルネットワーク322は、さらに、シーンの位置を出力するように構成される。いくつかの実施形態では、シーン分類器のニューラルネットワーク322は視線データを例えば視線検出器130(図1)から受信してシーンの位置の判別を支援するように構成される。いくつかの実施形態では、シーン分類器のニューラルネットワーク322はGPSデータを例えばGPS116(図1)から受信して物体の位置の判別を支援するように構成される。当業者は、追加の修正も本開示の範囲内であることを理解するだろう。
図4は、いくつかの実施形態に従った検出車両システムの一部の機能図400である。いくつかの実施形態では、検出車両システムは検出車両システム110(図1)を含む。いくつかの実施形態では、図400の機能は異常シーン検出器128(図1)を用いて実装される。いくつかの実施形態では、図400の機能はシステム900(図9)を用いて実装される。
センサデータ410は、車両に取り付けられた一つ又は複数のセンサから収集される。いくつかの実施形態では、一つ又は複数のセンサは車両と一体である。いくつかの実施形態では、一つ又は複数のセンサの少なくとも一つは車両から分離可能である。いくつかの実施形態では、一つ又は複数のセンサの少なくとも一つはスマートグラスを含む。いくつかの実施形態では、一つ又は複数のセンサはセンサ114(図1)に対応する。
センサデータ410は異常シーン検出器420によって受信される。いくつかの実施形態では、異常シーン検出器420は異常シーン検出器128(図1)に対応する。異常シーン検出器420はセマンティックセグメンテーションのニューラルネットワーク422を含む。セマンティックセグメンテーションのニューラルネットワーク422は、センサデータ410を分析して、車両の周囲の環境が異常シーン又は物体の組合せを含むか否かを判別するように構成される。例えば、センサデータ410が一つ又は複数の画像を含む場合、セマンティックセグメンテーションのニューラルネットワーク422は、一つ又は複数の画像の各ピクセルを分類して、対応するピクセル内に物体が存在するか否かを判別し、物体が存在する場合には物体の種類を判別するように構成される。いくつかの実施形態では、物体の種類は、車両、車道、落下物、人間又は他の適切な物体の種類を含む。いくつかの実施形態では、セマンティックセグメンテーションのニューラルネットワーク422は、さらに、識別されたシーンとマップデータ、例えばマップ118(図1)からのマップデータとを比較して、識別されたシーンが異常シーンであるか否かを判別するように構成される。セマンティックセグメンテーションのニューラルネットワーク422は、物体認識のために使用可能な完全に又は部分的に学習されたニューラルネットワークを含む。いくつかの実施形態では、セマンティックセグメンテーションのニューラルネットワーク422は完全畳み込みニューラルネットワークを含む。いくつかの実施形態では、セマンティックセグメンテーションのニューラルネットワーク422は、更新されたパラメータ及び重みを外部装置から受信するように構成される。いくつかの実施形態では、セマンティックセグメンテーションのニューラルネットワーク422は、更新されたパラメータ及び重みを周期的に受信するように構成される。いくつかの実施形態では、セマンティックセグメンテーションのニューラルネットワーク422は、検出車両システムを含む車両の乗員からの要求に応答して、更新されたパラメータ及び重みを受信するように構成される。
セマンティックセグメンテーションのニューラルネットワーク422は異常エリアのビットマップ430を出力するように構成される。いくつかの実施形態では、セマンティックセグメンテーションのニューラルネットワーク422は、シーンが異常であるという判別に応答してのみ、異常エリアのビットマップ430を出力するように構成される。いくつかの実施形態では、セマンティックセグメンテーションのニューラルネットワーク422は、識別することができないシーンが異常シーンであると判別するように構成される。異常エリアのビットマップ430は、車両が周囲環境内の場所に移動できるか否かに関する情報を含む。いくつかの実施形態では、ビットマップは、車両が種々の場所に移動できるか否かを示す、ヒートマップのような色分けされたマップを含む。
以下の説明は、センサデータ410が車両のフロントカメラからの画像情報を含む例を利用する。いくつかの実施形態では、ビットマップは、車両が、識別された異常シーン又は異常物体を回避するために特定の場所に前進することができるか否かを示す。いくつかの実施形態では、ビットマップは、識別された異常シーン又は異常物体の存在により、特定の場所を回避すべきであるか否かを示す。
当業者は、機能図400に対する修正が本開示の範囲内であることを理解するだろう。例えば、いくつかの実施形態では、セマンティックセグメンテーションのニューラルネットワーク422は、さらに、シーンの位置を出力するように構成される。いくつかの実施形態では、セマンティックセグメンテーションのニューラルネットワーク422は視線データを例えば視線検出器130(図1)から受信してシーンの位置の判別を支援するように構成される。いくつかの実施形態では、セマンティックセグメンテーションのニューラルネットワーク422はGPSデータを例えばGPS116(図1)から受信して物体の位置の判別を支援するように構成される。当業者は、追加の修正も本開示の範囲内であることを理解するだろう。
図5は、いくつかの実施形態に従って危険を検出する方法500のフローチャートである。いくつかの実施形態では、方法500は検出車両システム110(図1)を用いて実装される。いくつかの実施形態では、方法500はシステム900(図9)を用いて実装される。以下の説明では、主に車両のドライバに焦点が当てられる。しかしながら、当業者は、方法500が車両内の他の乗員にも適用可能であることを理解するだろう。
動作505では、乗員の正常な挙動における制御パラメータの確率分布が得られる。確率分布は乗員の正常な挙動に対応する。いくつかの実施形態では、正常な挙動のプロファイルが複数の挙動に関する。いくつかの実施形態では、挙動は、視線方向の挙動、走行速度の挙動、加速/制動の挙動、操舵の挙動又は他の適切な挙動の少なくとも一つを含む。視線方向の挙動は、車両が走行している方向にドライバの注意がどのくらい向けられているかに関する。走行速度の挙動は、ドライバが車両を正常に運転する速度に関する。加速/制動の挙動は、ドライバがアクセル又はブレーキを正常に使用しているかに関する。操舵の挙動は車両のステアリングホイールの回転の大きさ及び急さに関する。いくつかの実施形態では、要因間の相関関係がプロファイルを開発するのに使用される。例えば、いくつかの実施形態では、車両の速度と操舵の挙動とが組み合わされる。ドライバの正常な挙動のプロファイルを使用して、この正常な挙動に関連付けられた制御パラメータの分布が得られる。
動作510において、乗員の制御パラメータが計測される。いくつかの実施形態では、制御パラメータは、乗員監視カメラ、例えば乗員監視カメラ112(図1)を用いて計測される。いくつかの実施形態では、制御パラメータは、ジャイロスコープ、加速度計、速度計又は車両内の他の適切なセンサを用いて計測される。
動作515では、動作510からの計測された制御パラメータが、動作505において得られた分布と比較される。いくつかの実施形態では、複数のパラメータ分布が動作505において得られる。例えば、ドライバについての視線方向分布とドライバについての加速/制動分布とが得られる。動作505において複数の分布が得られるいくつかの実施形態では、動作515は、計測された制御パラメータを、動作505において得られた対応する各分布と比較することを含む。すなわち、いくつかの実施形態では、視線方向分布が、例えば視線検出器130(図1)から受信された視線データと比較され、加速/制動分布が、例えば加速度計から受信された車両の加速/制動と比較される。
動作520において、得られた分布からの偏差が相当な偏差であるか否かに関する判別がなされる。相当な偏差は、ドライバについての非常に稀な挙動である偏差である。例えば、ドライバが長時間に亘ってサイドウィンドウの外側を見ていたこと、又はドライバが正常に円滑なターンを行っていたときにドライバがステアリングホイールを急に切ったことである。いくつかの実施形態では、偏差が最も高い確率の挙動から三以上の標準偏差であることに応答して、偏差が相当な偏差であると見なされる。いくつかの実施形態では、偏差の閾値はVICS及びTMCのような交通情報のような外部情報に基づいて又は異常状況検出器122からの指示に基づいて動的に変更される。相当な偏差のみに危険通知を制限することによって、誤検出が低減され、検出車両の処理負荷及び電力消費が低減される。低減された電力消費は、電気車両又はハイブリッド車両におけるバッテリ消費を低減するのに役立つ。正常な挙動からの偏差に関する追加情報が、図6に関して以下に提供される。
相当な偏差が生じたという判別に応答して、方法500は動作525に進む。相当な偏差が生じなかったという判別に応答して、方法500は動作505に戻る。いくつかの実施形態では、確率分布は、新たに計測された制御パラメータに基づいて連続的に更新される。いくつかの実施形態では、相当な偏差が生じなかったという判別に応答して、方法500は動作510に戻り、確率分布は更新されない。
動作525では、相当な偏差に関連するセンサデータを識別するために、要求がデータ指定子に送信される。いくつかの実施形態では、データ指定子はデータ指定子132(図1)に対応する。データ指定子への要求は、データ指定子が、車両のセンサからセンサデータを読み出して、正常なドライバの挙動からの相当な偏差を引き起こした可能性が高い危険を他の車両に通知するためのログデータを生成することを要求する。
図6は、いくつかの実施形態に従った乗員パラメータのプロット600である。いくつかの実施形態では、プロット600は、検出された乗員挙動が正常又は異常かを判別するために、異常状況検出器122(図1)によって使用可能である。いくつかの実施形態では、プロット600は、乗員挙動からの相当な偏差が生じたか否かを判別するために、動作520(図5)において使用可能である。いくつかの実施形態では、プロット600は、危険が存在するか否かを判別するために、システム900(図9)によって使用可能である。以下の説明では、主に車両のドライバに焦点が当てられる。しかしながら、当業者は、以下の説明がドライバ以外の車両の乗員にも適用可能であることを理解するだろう。
プロット600は、ドライバによる挙動を示す挙動分布線610を含む。いくつかの実施形態では、挙動分布線610はパフォーマンス曲線と呼ばれる。挙動分布線610は、ドライバが車両の運転中にどのように振る舞うかを示す。線620におけるピークパフォーマンス値はドライバの最も一般的な挙動を示す。例として車両の加速/制動を用いると、線620におけるピークパフォーマンス値は、ドライバがブレーキを踏む全ての時間に亘って車両のブレーキに印加される圧力の最も一般的な量を示す。
プロット600は線630a及び630bにおける閾値も示す。閾値は、線620におけるピークパフォーマンス値とは著しく異なるドライバによるパフォーマンスを示す。線630aにおける閾値は、線620におけるピークパフォーマンス値からの偏差Daである。線630bにおける閾値は、線620におけるピークパフォーマンス値からの偏差Dbである。いくつかの実施形態では、偏差Daは偏差Dbと等しい。いくつかの実施形態では、偏差Daは偏差Dbとは異なる。いくつかの実施形態では、偏差Da及び偏差Dbの各々は線620におけるピークパフォーマンス値から三以上の標準偏差である。いくつかの例では、偏差Da及びDbが小さすぎる場合には、誤検出のリスクが増大する。いくつかの例では、偏差Da及びDbが大きすぎる場合には、検出漏れのリスクが増大する。偏差Da及びDbは、検出車両の処理負荷及び電力消費と被通知車両への信頼性高い危険通知とのバランスを取るように設定される。いくつかの実施形態では、偏差の閾値はVICS及びTMCのような交通情報のような外部情報に基づいて又は異常状況検出器122からの指示に基づいて動的に変更される。
乗員が異常に振る舞うか否かに関する判別の間、乗員に関連付けられたパラメータ、例えばドライバによる車両の制動が計測される。計測されたパラメータは、挙動が線620におけるピークパフォーマンス値からの相当な偏差を構成するか否かを判別するために、プロット600に適用される。計測された制御パラメータがプロット600における点640に当たる場合、乗員のパフォーマンスは線620におけるピークパフォーマンス値からの相当な偏差を有さないと判別される。対照的に、計測された制御パラメータが点650a又は650bに当たる場合、パフォーマンスパラメータが線620におけるピークパフォーマンス値からの点650aについての偏差Da又は点650bについての偏差Dbよりも大きいので、パフォーマンスは線620におけるピークパフォーマンス値からの相当な偏差を有すると見なされる。
プロット600は、線620におけるピークパフォーマンス値を中心とするベルカーブを含む。しかしながら、当業者は、他の挙動分布線の形状が本開示の範囲内であることを理解するだろう。
図7は、いくつかの実施形態に従った危険通知システムを実装する方法700のフローチャートである。いくつかの実施形態では、方法700は、危険通知システム100(図1)を用いて実装される。いくつかの実施形態では、方法700はシステム900(図9)を用いて実装される。以下の説明では、主に車両のドライバに焦点が当てられる。しかしながら、当業者は、方法700が車両内の他の乗員にも適用可能であることを理解するだろう。
動作705において、センサデータが収集される。センサデータは、車両に接続可能な一つ又は複数のセンサによって収集される。いくつかの実施形態では、センサデータは車両の制御パラメータを含む。いくつかの実施形態では、センサデータは車両のドライバの視線方向についての情報を含む。いくつかの実施形態では、センサデータは、車両の周囲の環境に関する情報を含む。いくつかの実施形態では、センサデータはセンサ114(図1)及び/又は乗員監視カメラ112(図1)からのデータを含む。
動作710において、センサデータが処理される。センサデータは、車両のドライバの挙動が異常であるか否か又は異常物体又は異常シーンが一つ又は複数のセンサによって検出されたか否かを判別するために処理される。いくつかの実施形態では、センサデータは異常状況検出器122(図1)によって処理される。
動作715において、センサデータが異常挙動を示すか否か又は異常物体又は異常シーンが存在するか否かに関する判別がなされる。いくつかの実施形態では、ドライバのパフォーマンスが正常なドライバのパフォーマンスからの相当な偏差であることをセンサデータが示すか否かに基づいて、判別がなされる。いくつかの実施形態では、ドライバパフォーマンス曲線、例えばプロット600(図6)に基づいて判別がなされる。いくつかの実施形態では、車両の周囲の環境に関する一つ又は複数のセンサによって検出された物体又は情報に基づいて判別がなされる。いくつかの実施形態では、異常状況検出器122(図1)を用いて判別がなされる。
異常状況が検出されたという判別に応答して、方法700は動作720に進む。異常状況が検出されなかったという判別に応答して、方法700は動作705に戻る。
動作720において、異常状況の種類に基づいてどのセンサ情報が収集されるべきかに関する判別がなされる。いくつかの実施形態では、視線データ、例えば視線検出器130(図1)からの視線データに基づいて判別がなされる。いくつかの実施形態では、ドライバの計測された制御パフォーマンスに基づいて判別がなされる。いくつかの実施形態では、識別された異常物体又は異常シーンに基づいて判別がなされる。いくつかの実施形態では、データ指定子132(図1)を用いて判別がなされる。いくつかの実施形態では、収集されたデータが、無関係なデータを低減し又は除去するためにトリミングされ又は処理される。
動作725において、収集されたデータが記憶される。いくつかの実施形態では、収集されたデータはメモリに記憶される。いくつかの実施形態では、収集されたデータは、データが収集されたとき又は異常状況が判別されたときに関するタイムスタンプ情報に関連して記憶される。いくつかの実施形態では、収集されたデータはログ収集器134(図1)を用いて記憶される。
動作730において、記憶されたデータがサーバ140に送信される。いくつかの実施形態では、記憶されたデータは無線で送信される。いくつかの実施形態では、記憶されたデータは有線接続を介して送信される。いくつかの実施形態では、記憶されたデータはログ送信機136(図1)を用いて送信される。
動作735において、送信されたデータがサーバ140によって受信される。いくつかの実施形態では、データはログデータ受信機142(図1)によって受信される。いくつかの実施形態では、受信されたデータはサーバ140のメモリに記憶される。いくつかの実施形態では、受信されたデータは、優先度が付けられたキューでサーバ140に記憶される。
動作740において、受信されたデータが符号化される。いくつかの実施形態では、受信されたデータは、予め定められた符号化プロトコルに従って符号化される。いくつかの実施形態では、受信されたデータは、受信されたデータの種類に基づいて符号化される。いくつかの実施形態では、データは、優先度が付けられたキューにおけるデータの優先度に従って符号化される。いくつかの実施形態では、符号化されたデータはサーバ140のメモリに記憶される。いくつかの実施形態では、符号化されたデータは、優先度が付けられたキューでサーバ140のメモリに記憶される。
動作745において、符号化されたデータが被通知車両システム150に送信される。いくつかの実施形態では、符号化されたデータは無線で送信される。いくつかの実施形態では、符号化されたデータは有線接続を介して送信される。いくつかの実施形態では、符号化されたデータは、優先度が付けられたキューにおける符号化されたデータの優先度に従って送信される。いくつかの実施形態では、符号化されたデータは車両の既知の場所又はナビゲーション経路に基づいて車両に送信される。いくつかの実施形態では、符号化されたデータはログ転送機146(図1)によって送信される。
動作750において、符号化されたデータが受信される。いくつかの実施形態では、符号化されたデータはログデコーダ154(図1)によって受信される。いくつかの実施形態では、受信されたデータは復号の前に被通知車両システム150のメモリに記憶される。いくつかの実施形態では、受信されたデータは、優先度が付けられたキューで被通知車両システム150に記憶される。
動作755において、データが復号される。いくつかの実施形態では、データは、予め定められた復号プロトコルに従って復号される。いくつかの実施形態では、データは、サーバ140からデータと共に受信された符号化プロトコル情報に基づいて復号される。いくつかの実施形態では、データは、受信されたデータの種類に従って復号される。いくつかの実施形態では、データは、優先度が付けられたキューにおける優先度に基づいて復号される。いくつかの実施形態では、復号されたデータは被通知車両システム150のメモリに記憶される。いくつかの実施形態では、復号されたデータは、優先度が付けられたキューで被通知車両システム150のメモリに記憶される。いくつかの実施形態では、データはログデコーダ154(図1)によって復号される。
動作760において、復号されたデータが視覚化される。復号されたデータを視覚化することによって、データの視覚的表現が提供される。いくつかの実施形態では、視覚的表現は異常状況の画像を含む。いくつかの実施形態では、視覚的表現は、異常状況を表すアイコンを含む。いくつかの実施形態では、視覚的表現はマップ上の異常状況の場所を含む。いくつかの実施形態では、復号されたデータはログビジュアライザ156(図1)を用いて視覚化される。
動作765において、乗員は異常状況について通知される。いくつかの実施形態では、乗員は、UI、例えばUI158(図1)を用いて通知される。いくつかの実施形態では、乗員は、乗員がアクセス可能なモバイルデバイスを用いて通知される。いくつかの実施形態では、通知は聴覚的又は視覚的な警告を含む。いくつかの実施形態では、通知は、乗員がアクセス可能なモバイルデバイス上で警告を自動的に生成するように構成される。いくつかの実施形態では、通知は、更新されたナビゲーション情報を含む。車両が自動運転車両であるいくつかの実施形態では、通知は、異常状況を回避するための自動運転車両への指示を含む。
当業者は、方法700に対する修正が本開示の範囲内であることを理解するだろう。いくつかの実施形態では、少なくとも一つの追加の動作が方法700に含まれる。例えば、いくつかの実施形態では、方法700は、被通知車両が異常状況の場所に到着したときに乗員から異常状況の確認を受信することを更に含む。いくつかの実施形態では、方法700の少なくとも一つの動作が除外される。例えば、いくつかの実施形態では、動作740が除外され、データは、データを符号化することなく被通知車両システム150に提供される。いくつかの実施形態では、方法700の動作の順序が調整される。例えば、いくつかの実施形態では、センサデータの保存を助けるために、異常状況が存在するか否かに関する判別の前に動作725が生じる。当業者は、方法700に対する他の修正が本開示の範囲内であることを理解するだろう。
図8は、いくつかの実施形態に従ったユーザインタフェース800の図である。いくつかの実施形態では、UI800はUI158(図1)に対応する。いくつかの実施形態では、UI800は、乗員160(図1)がアクセス可能なモバイルデバイスの一部である。いくつかの実施形態では、UI800は被通知車両システム150(図1)の一部である。いくつかの実施形態では、UI800はシステム900(図9)を用いて実装される。
UI800はナビゲーションUI805及び画像UI810を含む。画像UI810は、車両センサ815からの捕捉画像と、識別された物体820のハイライト(highlight)とを含む。UI800は、画像UI810を用いて乗員に異常状況を通知するのに使用可能である。UI800は、さらに、ナビゲーションUI805を用いて異常状況を回避するための走行経路を乗員に通知するのに使用可能である。いくつかの実施形態では、UI800は異常状況の継続的な存在を確認するために乗員から情報を受信するように構成される。いくつかの実施形態では、UI800は車両と一体である。いくつかの実施形態では、UI800は車両から分離可能である。
ナビゲーションUI805は、GPS情報、例えばGPS116(図1)からのGPS情報を受信し、車両のドライバが見えるマップを表示するように構成される。ナビゲーションUI805は、さらに、車両が識別された物体に到達するために横切ることができる、マップに沿った走行経路を表示するように構成される。いくつかの実施形態では、ナビゲーションUI805はタッチスクリーンを含む。いくつかの実施形態では、ナビゲーションUI805はマップ及び/又は走行経路の更新をサーバ140(図1)のような外部装置から受信するように構成される。
画像UI810は、車両センサ815からの捕捉画像と、異常状況に関連付けられた物体820のハイライトとを含む。識別された物体820のハイライトは、車両センサからの画像内の物体を識別するために、車両センサ815からの画像に重ねられる。いくつかの実施形態では、車両センサ815からの画像は、車両センサからのトリミングされた画像である。いくつかの実施形態では、画像UI810は異常状況の継続的な存在を確認し又は否定するために乗員からの入力を受信することができる。いくつかの実施形態では、画像UI810はタッチスクリーンを含む。
図8は、画像UI810とは別個のナビゲーションUI805を含む。いくつかの実施形態では、画像UI810はナビゲーションUI805に重ね合わされる。いくつかの実施形態では、車両が動いている間、画像UI810は隠される。
図9は、いくつかの実施形態に従った物体識別を実装するためのシステムのブロック図である。システム900は、ハードウェアプロセッサ902と、コンピュータプログラムコード906、すなわち一組の実行可能な命令で符号化された非一時的なコンピュータ可読記憶媒体904、すなわち一組の実行可能な命令を記憶する非一時的なコンピュータ可読記憶媒体904とを含む。コンピュータ可読記憶媒体904は、また、外部装置とインタフェースで接続するために命令907で符号化される。プロセッサ902はバス908を介してコンピュータ可読記憶媒体904に電気的に結合される。プロセッサ902はバス908によって入力/出力(I/O)インタフェース910にも電気的に結合される。また、ネットワークインタフェース912がバス908を介してプロセッサ902に電気的に接続される。ネットワークインタフェース912がネットワーク914に接続されるので、プロセッサ902及びコンピュータ可読記憶媒体904はネットワーク914を介して外部要素に接続することができる。プロセッサ902は、危険通知システム100(図1)、方法500(図5)又は方法700(図7)において説明されたような動作の一部又は全てを実行するためにシステム900を使用可能にすべく、コンピュータ可読記憶媒体904において符号化されたコンピュータプログラムコード906を実行するように構成される。
いくつかの実施形態では、プロセッサ902は、中央処理装置(CPU)、マルチプロセッサ、分散処理システム、特定用途向け集積回路(ASIC)、及び/又は適切な処理装置である。
いくつかの実施形態では、コンピュータ可読記憶媒体904は、電子的な、磁気的な、光学的な、電磁気的な、赤外線の、及び/又は半導体のシステム(又は機器若しくは装置)を含む。例えば、コンピュータ可読記憶媒体904は、半導体メモリ、ソリッドステートメモリ、磁気テープ、リムーバブルコンピュータディスケット、ランダム・アクセス・メモリ(RAM)、読み取り専用メモリ(ROM)、剛性磁気ディスク及び/又は光ディスクを含む。光ディスクを使用するいくつかの実施形態では、コンピュータ可読記憶媒体904は、コンパクトディスク読み取り専用メモリ(CD-ROM)、コンパクトディスク読み取り/書き込み(CD-R/W)及び/又はデジタルビデオディスク(DVD)を含む。
いくつかの実施形態では、記憶媒体904は、危険通知システム100(図1)、方法500(図5)又は方法700(図7)において説明されたような動作の一部又は全てをシステム900に実行させるように構成されたコンピュータプログラムコード906を記憶する。いくつかの実施形態では、記憶媒体904は、また、センサデータパラメータ916、分布パラメータ918、収集されたデータパラメータ920、符号化プロトコルパラメータ922、及び/又は危険通知システム100(図1)、方法500(図5)又は方法700(図7)において説明されたような動作の一部又は全てを実行するための一組の実行可能な命令のような、危険通知システム100(図1)、方法500(図5)又は方法700(図7)において説明されたような動作の一部又は全てを実行するために必要な情報と、危険通知システム100(図1)、方法500(図5)又は方法700(図7)において説明されたような動作の一部又は全てを実行する間に生成される情報とを記憶する。
いくつかの実施形態では、記憶媒体904は、外部装置とインタフェースで接続するための命令907を記憶する。命令907は、危険通知システム100(図1)、方法500(図5)又は方法700(図7)において説明されたような動作の一部又は全てを効率的に実装するために、外部装置によって読み取り可能な命令をプロセッサ902が生成することを可能とする。
システム900はI/Oインタフェース910を含む。I/Oインタフェース910は外部回路に結合される。いくつかの実施形態では、I/Oインタフェース910は、情報及びコマンドをプロセッサ902に通信するために、キーボード、キーパッド、マウス、トラックボール、トラックパッド及び/又はカーソル方向キーを含む。
システム900は、プロセッサ902に結合されたネットワークインタフェース912も含む。ネットワークインタフェース912は、一つ又は複数の他のコンピュータシステムが接続されたネットワーク914とシステム900が通信することを可能とする。ネットワークインタフェース912は、ブルートゥース、WIFI(登録商標)、WIMAX(登録商標)、GPRS若しくはWCDMA(登録商標)のような無線ネットワークインタフェース、又はETHERNET(登録商標)、USB(登録商標)若しくはIEEE-1394のような有線ネットワークインタフェースを含む。いくつかの実施形態では、危険通知システム100(図1)、方法500(図5)又は方法700(図7)において説明されたような動作の一部又は全てが二つ又は三つ以上のシステム900において実装され、センサデータパラメータ916、分布パラメータ918、収集されたデータパラメータ920又は符号化プロトコルパラメータ922のような情報がネットワーク914を介して種々のシステム900の間で交換される。
本説明の態様は、危険を識別する方法に関する。本方法は、車両に取り付けられた第1センサから制御パラメータデータを受信することを含み、制御パラメータデータは車両の乗員の挙動に関連付けられる。本方法は、さらに、制御パラメータデータを乗員のパフォーマンス分布と比較して、制御パラメータが異常挙動を示すか否かを判別することを含む。本方法は、さらに、制御パラメータが異常挙動を示すという判別に応答して、車両に取り付けられた第2センサから収集されるべきセンサデータを識別することを含む。本方法は、さらに、収集されたセンサデータに基づいてログデータを生成することを含む。本方法は、さらに、ログデータを外部装置に送信することを含む。いくつかの実施形態では、制御パラメータデータをパフォーマンス分布と比較することは、制御パラメータデータがパフォーマンス分布のピーク値から三以上の標準偏差であることに応答して、制御パラメータが異常挙動を示すと判別することを含む。いくつかの実施形態では、制御パラメータデータを受信することは、車両の加速度、車両の操舵又は車両の速度の少なくとも一つに関するデータを受信することを含む。いくつかの実施形態では、制御パラメータデータを受信することは、乗員の視線が向けられた方向を示す視線データを受信することを含む。いくつかの実施形態では、収集されるべきセンサデータを識別することは、車両に取り付けられたカメラからの画像データを識別することを含む。いくつかの実施形態では、本方法は、さらに、ログデータを生成する前に画像データをトリミングすることを含む。いくつかの実施形態では、ログデータを生成することは、収集されたセンサデータを、センサデータが捕捉された場所と関連付けることを含む。いくつかの実施形態では、本方法は、さらに、車両の周囲の環境の画像を捕捉することを含む。いくつかの実施形態では、本方法は、さらに、学習済みのニューラルネットワークを用いて画像に対する物体認識を実行して、画像内に異常物体が存在するか否かを判別することを含む。いくつかの実施形態では、本方法は、さらに、学習済みのニューラルネットワークを用いて画像に対するシーン分類を実行して、画像内に異常なシーンが存在するか否かを判別することを含む。いくつかの実施形態では、本方法は、さらに、学習済みのニューラルネットワークを用いて画像に対するセマンティックセグメンテーションを実行して、車両の周囲の環境のビットマップを生成することを含む。
本説明の態様は危険識別システムに関する。システムは、命令を記憶するように構成された非一時的なコンピュータ可読媒体を含む。システムは、非一時的なコンピュータ可読媒体に接続されたプロセッサを更に含む。プロセッサは、車両に取り付けられた第1センサから制御パラメータデータを受信するための命令を実行するように構成され、制御パラメータデータは車両の乗員の挙動に関連付けられる。プロセッサは、さらに、制御パラメータデータを乗員のパフォーマンス分布と比較して、制御パラメータが異常挙動を示すか否かを判別するための命令を実行するように構成される。プロセッサは、さらに、制御パラメータが異常挙動を示すという判別に応答して、車両に取り付けられた第2センサから収集されるべきセンサデータを識別するための命令を実行するように構成される。プロセッサは、さらに、収集されたセンサデータに基づいてログデータを生成するための命令を実行するように構成される。プロセッサは、さらに、ログデータを外部装置に送信するための命令を生成するための命令を実行するように構成される。いくつかの実施形態では、プロセッサは、さらに、制御パラメータデータがパフォーマンス分布のピーク値から三以上の標準偏差であることに応答して、制御パラメータが異常挙動を示すと判別するための命令を実行するように構成される。いくつかの実施形態では、プロセッサは、さらに、車両の加速度、車両の操舵又は車両の速度の少なくとも一つに関するデータを含む制御パラメータデータを受信するための命令を実行するように構成される。いくつかの実施形態では、プロセッサは、さらに、乗員の視線が向けられた方向を示す視線データを含む制御パラメータデータを受信するための命令を実行するように構成される。いくつかの実施形態では、プロセッサは、さらに、車両に取り付けられたカメラからの画像データを含む、収集されるべきセンサデータを識別するための命令を実行するように構成される。いくつかの実施形態では、プロセッサは、さらに、ログデータを生成する前に画像データをトリミングするための命令を実行するように構成される。いくつかの実施形態では、ログデータを生成することは、収集されたセンサデータを、センサデータが捕捉された場所と関連付けることを含む。
本説明の態様は、被通知車両に危険を通知する方法に関する。本方法は、検出車両に取り付けられた第1センサから制御パラメータデータを受信することを含み、制御パラメータデータは検出車両の乗員の挙動に関連付けられる。本方法は、さらに、制御パラメータデータを検出車両の乗員のパフォーマンス分布と比較して、制御パラメータが異常挙動を示すか否かを判別することを含む。本方法は、さらに、制御パラメータが異常挙動を示すという判別に応答して、検出車両に取り付けられた第2センサからのデータに基づいてログデータを生成することを含む。本方法は、さらに、ログデータを被通知車両に送信することを含む。本方法は、さらに、ログデータに基づいて被通知車両の乗員に危険を通知することを含む。いくつかの実施形態では、ログデータを送信することは、ログデータを検出車両からサーバに送信することと、サーバを用いてログデータを符号化することと、符号化されたログデータを被通知車両に送信することとを含む。
以上の説明は、当業者が本開示の態様をより良く理解できるように、いくつかの実施形態の特徴を概説したものである。当業者は、本明細書に導入された実施形態と同一の目的を実行し且つ/又は同一の利点を達成するために他の工程及び構造を設計又は修正するための基礎として本開示を容易に使用できることを理解すべきである。また、当業者は、斯かる均等の構成が本開示の思想及び範囲から逸脱しないことと、当業者が、本開示の思想及び範囲から逸脱することなく、本明細書において様々な変更、置換及び改変を行うことができることとを認識すべきである。

Claims (20)

  1. 危険を識別する方法であって、
    車両に取り付けられた第1センサから、前記車両の乗員の挙動に関連付けられた制御パラメータデータを受信することと、
    前記制御パラメータデータを前記乗員のパフォーマンス分布と比較して、前記制御パラメータが異常挙動を示すか否かを判別することと、
    前記制御パラメータが異常挙動を示すという判別に応答して、前記車両に取り付けられた第2センサから収集されるべきセンサデータを識別することと、
    収集されたセンサデータに基づいてログデータを生成することと、
    前記ログデータを外部装置に送信することと
    を含む、方法。
  2. 前記制御パラメータデータを前記パフォーマンス分布と比較することが、前記制御パラメータデータが前記パフォーマンス分布のピーク値から三以上の標準偏差であることに応答して、前記制御パラメータが異常挙動を示すと判別することを含む、請求項1に記載の方法。
  3. 前記制御パラメータデータを受信することが、前記車両の加速度、前記車両の操舵又は前記車両の速度の少なくとも一つに関するデータを受信することを含む、請求項1又は2に記載の方法。
  4. 前記制御パラメータデータを受信することが、前記乗員の視線が向けられた方向を示す視線データを受信することを含む、請求項1又は2に記載の方法。
  5. 前記収集されるべきセンサデータを識別することが、前記車両に取り付けられたカメラからの画像データを識別することを含む、請求項1又は2に記載の方法。
  6. 前記ログデータを生成する前に前記画像データをトリミングすることを更に含む、請求項5に記載の方法。
  7. 前記ログデータを生成することが、前記収集されたセンサデータを、該センサデータが捕捉された場所と関連付けることを含む、請求項1又は2に記載の方法。
  8. 前記車両の周囲の環境の画像を捕捉することを更に含む、請求項1又は2に記載の方法。
  9. 学習済みのニューラルネットワークを用いて前記画像に対する物体認識を実行して、該画像内に異常物体が存在するか否かを判別することを更に含む、請求項8に記載の方法。
  10. 学習済みのニューラルネットワークを用いて前記画像に対するシーン分類を実行して、該画像内に異常なシーンが存在するか否かを判別することを更に含む、請求項8に記載の方法。
  11. 学習済みのニューラルネットワークを用いて前記画像に対するセマンティックセグメンテーションを実行して、前記車両の周囲の環境のビットマップを生成することを更に含む、請求項8に記載の方法。
  12. 危険識別システムであって、
    命令を記憶するように構成された非一時的なコンピュータ可読媒体と、
    前記非一時的なコンピュータ可読媒体に接続されたプロセッサと
    を備え、
    前記プロセッサは、
    車両に取り付けられた第1センサから、前記車両の乗員の挙動に関連付けられた制御パラメータデータを受信し、
    前記制御パラメータデータを前記乗員のパフォーマンス分布と比較して、前記制御パラメータが異常挙動を示すか否かを判別し、
    前記制御パラメータが異常挙動を示すという判別に応答して、前記車両に取り付けられた第2センサから収集されるべきセンサデータを識別し、
    収集されたセンサデータに基づいてログデータを生成し、
    前記ログデータを外部装置に送信する
    ための前記命令を実行するように構成される、危険識別システム。
  13. 前記プロセッサは、さらに、前記制御パラメータデータが前記パフォーマンス分布のピーク値から三以上の標準偏差であることに応答して、前記制御パラメータが異常挙動を示すと判別するための前記命令を実行するように構成される、請求項12に記載のシステム。
  14. 前記プロセッサは、さらに、前記車両の加速度、前記車両の操舵又は前記車両の速度の少なくとも一つに関するデータを含む前記制御パラメータデータを受信するための前記命令を実行するように構成される、請求項12又は13に記載のシステム。
  15. 前記プロセッサは、さらに、前記乗員の視線が向けられた方向を示す視線データを含む前記制御パラメータデータを受信するための前記命令を実行するように構成される、請求項12又は13に記載のシステム。
  16. 前記プロセッサは、さらに、前記車両に取り付けられたカメラからの画像データを含む前記収集されるべきセンサデータを識別するための前記命令を実行するように構成される、請求項12又は13に記載のシステム。
  17. 前記プロセッサは、さらに、前記ログデータを生成する前に前記画像データをトリミングするための前記命令を実行するように構成される、請求項16に記載のシステム。
  18. 前記ログデータを生成することは、前記収集されたセンサデータを、該センサデータが捕捉された場所と関連付けることを含む、請求項12又は13に記載のシステム。
  19. 被通知車両に危険を通知する方法であって、
    検出車両に取り付けられた第1センサから、前記検出車両の乗員の挙動に関連付けられた制御パラメータデータを受信することと、
    前記制御パラメータデータを前記検出車両の乗員のパフォーマンス分布と比較して、前記制御パラメータが異常挙動を示すか否かを判別することと、
    前記制御パラメータが異常挙動を示すという判別に応答して、前記検出車両に取り付けられた第2センサからのデータに基づいてログデータを生成することと、
    前記ログデータを前記被通知車両に送信することと、
    前記ログデータに基づいて前記被通知車両の乗員に危険を通知することと
    を含む、方法。
  20. 前記ログデータを送信することが、
    前記ログデータを前記検出車両からサーバに送信することと、
    前記サーバを用いて前記ログデータを符号化することと、
    前記符号化されたログデータを前記被通知車両に送信することと
    を含む、請求項19に記載の方法。
JP2023025084A 2022-03-29 2023-02-21 危険通知方法及び実装するためのシステム Pending JP2023147200A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/707,878 2022-03-29
US17/707,878 US20230316919A1 (en) 2022-03-29 2022-03-29 Hazard notification method and system for implementing

Publications (1)

Publication Number Publication Date
JP2023147200A true JP2023147200A (ja) 2023-10-12

Family

ID=88193322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023025084A Pending JP2023147200A (ja) 2022-03-29 2023-02-21 危険通知方法及び実装するためのシステム

Country Status (3)

Country Link
US (1) US20230316919A1 (ja)
JP (1) JP2023147200A (ja)
CN (1) CN116923392A (ja)

Also Published As

Publication number Publication date
US20230316919A1 (en) 2023-10-05
CN116923392A (zh) 2023-10-24

Similar Documents

Publication Publication Date Title
US11993277B2 (en) Inward/outward vehicle monitoring for remote reporting and in-cab warning enhancements
US9352683B2 (en) Traffic density sensitivity selector
US10322696B2 (en) Vehicle environment imaging systems and methods
CN105292036B (zh) 边界检测系统
US9786171B2 (en) Systems and methods for detecting and distributing hazard data by a vehicle
US20200356923A1 (en) Risk information processing method and server device
KR20200106131A (ko) 긴급 상황 시의 차량의 동작
US20180357484A1 (en) Video processing device and video processing method
WO2016186039A1 (ja) 自動車周辺情報表示システム
US11891090B2 (en) System and method for surveillance
JP2019535566A (ja) 不測のインパルス変化衝突検出器
WO2019069581A1 (ja) 画像処理装置及び画像処理方法
CN112534487B (zh) 信息处理设备、移动体、信息处理方法和程序
JP2016071492A (ja) 要因分析装置および要因分析方法
US20220238019A1 (en) Safety performance evaluation apparatus, safety performance evaluation method, information processing apparatus, and information processing method
US11745745B2 (en) Systems and methods for improving driver attention awareness
JP2016066231A (ja) 衝突防止装置、衝突防止方法、衝突防止プログラムおよび記録媒体
WO2017115371A1 (en) Apparatus and method for avoiding vehicular accidents
JP7376996B2 (ja) 車両の危険状況判別装置、車両の危険状況判別方法、及びプログラム
JP2017126213A (ja) 交差点状況確認システム、撮像装置、車載装置、交差点状況確認プログラムおよび交差点状況確認方法
JP2023147200A (ja) 危険通知方法及び実装するためのシステム
JP2024513710A (ja) 光投影装置及び方法並びに記憶媒体
JP2015026004A (ja) 視認行動評価装置
JP7367014B2 (ja) 信号処理装置、信号処理方法、プログラム、及び、撮像装置
US20230096773A1 (en) Mitigating fire risks in vehicles

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230221

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20230519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240521