JP2017138694A - 映像処理装置及び映像処理方法 - Google Patents

映像処理装置及び映像処理方法 Download PDF

Info

Publication number
JP2017138694A
JP2017138694A JP2016017697A JP2016017697A JP2017138694A JP 2017138694 A JP2017138694 A JP 2017138694A JP 2016017697 A JP2016017697 A JP 2016017697A JP 2016017697 A JP2016017697 A JP 2016017697A JP 2017138694 A JP2017138694 A JP 2017138694A
Authority
JP
Japan
Prior art keywords
vehicle
video
feature
unit
miss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016017697A
Other languages
English (en)
Inventor
慎 小俣
Shin Komata
慎 小俣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2016017697A priority Critical patent/JP2017138694A/ja
Priority to PCT/JP2016/084032 priority patent/WO2017134897A1/ja
Priority to US15/779,165 priority patent/US20180357484A1/en
Publication of JP2017138694A publication Critical patent/JP2017138694A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/162Decentralised systems, e.g. inter-vehicle communication event-triggered
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection

Abstract

【課題】車載カメラで撮像した映像から事故映像やヒヤリハット映像のみを記録し、又は、車載カメラの記録映像から事故映像やヒヤリハット映像を抽出する。【解決手段】物体認識部302は、映像取得部301で取得した車両周辺の映像や車室内の映像に対して物体認識処理を行ない、認識結果に基づいて物体間の衝突や自車両の異常運転、自車両又は周辺車両の違反運転などに関するヒヤリハット特徴を検出する。コントロール部307、基本的には、物体認識部302から出力されるヒヤリハット特徴の検出信号に応じて、映像取得部301で取得される車載カメラの撮影映像のトリガー記録の制御を行なう。【選択図】 図3

Description

本明細書で開示する技術は、映像の記録制御や記録映像の解析を行なう映像処理装置及び映像処理方法に係り、特に、車載カメラで撮像した映像の記録制御や記録映像の解析を行なう映像処理装置及び映像処理方法に関する。
車載カメラの撮像映像を始めとして車両の情報を記録する装置の開発が進められている。この種の装置は、「ドライブ・レコーダー」あるいは「イベント・データ・レコーダー」とも呼ばれる(以下では、ドライブ・レコーダーに統一する)。ドライブ・レコーダーに記録される情報は、事故の前後に自動車の挙動を客観的に判断し、さらに事故防止を目指す上で重要な情報である。最近では、多くの自動車にドライブ・レコーダーが装備されるようになってきている。
ドライブ・レコーダーの主目的は事故の記録であり、メモリーに記録できる有限時間の中で、時々刻々と検出される車両の情報を上書き保存しつつ、事故の記録は消えないように保存しておく必要がある。例えば、加速度センサーの情報に基づいて「衝突による衝撃」や「ヒヤリハットに伴う急ブレーキなどによる加速度変化」を検知して、その前後の映像を上書き禁止にして保存する機能を搭載したドライブ・レコーダーが多い(例えば、特許文献1及び2を参照のこと)。
しかしながら、加速度センサーの情報を利用する場合、事故やヒヤリハットに伴う加速度変化と、路面の段差や凹凸、運転者の運転の仕方などに起因する加速度変化を見分けるのが難しい。この結果、誤検出による上書き禁止が頻発し、事故映像やヒヤリハット映像が多くの誤検出映像の中に埋没して、ドライブ・レコーダーの機能を有効に活用できなくなってしまう。
また、加速度センサーの情報では、車両の自重よりずっと軽いものとの衝突や駐車中のいたずらなどに反応できないケースもある。設置車両毎に、ユーザーがセンサーの感度を個別に調整できる製品も存在する。しかしながら、上記誤検出の低減のための調整に手間がかり、ユーザーが調整できないケースもある。
特開2012−221134号公報 特開2013−182573号公報
本明細書で開示する技術の目的は、車載カメラで撮像した映像から事故映像やヒヤリハット映像のみを記録し、又は、車載カメラの記録映像から事故映像やヒヤリハット映像を抽出することができる、優れた映像処理装置及び映像処理方法を提供することにある。
本明細書で開示する技術は、上記課題を参酌してなされたものであり、その第1の側面は、
車両の外部又は内部を撮像した映像に含まれる物体の認識結果に基づいて、事故に至る可能性があるシーンの特徴を検出する物体認識部と、
前記特徴が検出されたことに応じて前記映像の処理を制御する制御部と、
を具備する映像処理装置である。
本明細書で開示する技術の第2の側面によれば、第1の側面に記載の映像処理装置の前記物体認識部は、前記特徴として、前記映像から認識した物体の接近に関する特徴を検出するように構成されている。
本明細書で開示する技術の第3の側面によれば、第1の側面に記載の映像処理装置の前記物体認識部は、前記特徴として、物体認識した周辺車両同士の接近に関する特徴を検出するように構成されている。
本明細書で開示する技術の第4の側面によれば、第1の側面に記載の映像処理装置の前記物体認識部は、前記特徴として、物体認識した周辺車両又はその他の物体と前記車両の接近に関する特徴を検出するように構成されている。
本明細書で開示する技術の第5の側面によれば、第2の側面に記載の映像処理装置の前記物体認識部は、さらに距離画像を参照して、前記接近に関する特徴を検出するように構成されている。
本明細書で開示する技術の第6の側面によれば、第2の側面に記載の映像処理装置は、前記車両の周囲環境を検出する車外情報検出部をさらに備えている。そして、前記物体認識部は、前記周囲環境をさらに考慮して、前記接近に関する特徴を検出するように構成されている。
本明細書で開示する技術の第7の側面によれば、第1の側面に記載の映像処理装置の前記物体認識部は、前記特徴として、前記映像から認識した道路の画面内での軌道に基づいて前記車両のスピン又はスリップに関する特徴を検出するように構成されている。
本明細書で開示する技術の第8の側面によれば、第7の側面に記載の映像処理装置の前記物体認識部は、前記映像から道路に引かれた区画線、路肩、路側帯に基づいて道路を認識するように構成されている。
本明細書で開示する技術の第9の側面によれば、第1の側面に記載の映像処理装置は、前記車両のステアリングの方向を検出する車両状態検出部をさらに備えている。そして、前記物体認識部は、前記特徴として、前記映像から認識した道路と前記ステアリングの方向との角度に基づいて前記車両のスピン又はスリップに関する特徴を検出するように構成されている。
本明細書で開示する技術の第10の側面によれば、第7の側面に記載の映像処理装置は、前記車両の周囲環境を検出する車外情報検出部をさらに備えている。そして、前記物体認識部は、前記周囲環境を考慮して、前記車両のスピン又はスリップに関する特徴を検出するように構成されている。
本明細書で開示する技術の第11の側面によれば、第1の側面に記載の映像処理装置の前記物体認識部は、前記特徴として、前記車両又はその周辺車両の違反運転、通行人の違反行為に関する特徴を検出するように構成されている。
本明細書で開示する技術の第12の側面によれば、第11の側面に記載の映像処理装置の前記物体認識部は、前記映像から車線又は路側帯を認識して、前記車両の車線を逸脱した走行に関する特徴を検出するように構成されている。
本明細書で開示する技術の第13の側面によれば、第11の側面に記載の映像処理装置の前記物体認識部は、前記映像から車線又は路側帯と周辺車両を認識して、前記周辺車両の車線を逸脱した走行に関する特徴を検出するように構成されている。
本明細書で開示する技術の第14の側面によれば、第11の側面に記載の映像処理装置の前記物体認識部は、前記映像の物体認識結果に基づいて走行中の道路に規定されている規制に関する情報を取得し、前記車両又はその周辺車両の走行状況が前記規制と一致しないときに、違反運転に関する特徴を検出するように構成されている。
本明細書で開示する技術の第15の側面によれば、第14の側面に記載の映像処理装置は、さらに地図情報に基づいて、走行中の道路に規定されている規制に関する情報を取得するように構成されている。
本明細書で開示する技術の第16の側面によれば、第11の側面に記載の映像処理装置の前記物体認識部は、前記映像から、道路脇に設置された道路標識、路面に描かれた道路標識、道路に引かれた停止線位置、又は信号機の少なくともいずれか1つを認識して、前記車両又はその周辺車両の道路標識違反、停止線位置無視、又は信号無視の少なくともいずれか1つを検出したときに、違反運転に関する特徴を検出するように構成されている。
本明細書で開示する技術の第17の側面によれば、第11の側面に記載の映像処理装置の前記物体認識部は、道路上の停止線を物体認識し、前記車両又はその周辺車両の車速又は加速度と停止線位置までの関係から、停止が不可能であると判定した場合に、停止位置無視の違反運転に関する特徴を検出するように構成されている。
本明細書で開示する技術の第18の側面によれば、第11の側面に記載の映像処理装置の前記物体認識部は、信号機の赤信号又は黄信号を物体認識し、前記車両又はその周辺車両の車速又は加速度と物体認識した信号機の位置までの関係から、停止が不可能であると判定した場合に、信号無視の違反運転に関する特徴を検出するように構成されている。
本明細書で開示する技術の第19の側面によれば、第11の側面に記載の映像処理装置の物体認識部は、周辺車両の走行状況とランプの点灯をともに物体認識して、走行状況とランプの点灯が一致しないときに、周辺車両の合図不履行違反に関する特徴を検出するように構成されている。
また、本明細書で開示する技術の第20の側面は、
車両の外部又は内部を撮像した映像に含まれる物体の認識結果に基づいて、事故に至る可能性があるシーンの特徴を検出する物体認識ステップと、
前記特徴が検出されたことに応じて前記映像の処理を制御する制御ステップと、
を有する映像処理方法である。
本明細書で開示する技術によれば、車載カメラで撮像した映像の記録制御や記録映像の解析を好適に行なうことができる、優れた映像処理装置及び映像処理方法を提供することができる。
なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、本明細書で開示する技術を適用することができる車両制御システム2000の構成例を模式的に示した図である。 図2は、撮像部2410及び車外情報検出部2420の設置位置の一例を示した図である。 図3は、ヒヤリハット映像の記録を制御する映像処理装置300の機能的構成を模式的に示した図である。 図4は、映像処理装置300がヒヤリハット映像のトリガー記録を制御するための処理手順を示したフローチャートである。 図5は、映像表示装置500の機能的構成を示した図である。 図6は、外部装置600のヒヤリハット映像の抽出処理を行なうための機能的構成を模式的に示した図である。 図7は、外部装置600がヒヤリハット映像を抽出するための処理手順を示したフローチャートである。 図8は、映像表示装置800の機能的構成を示した図である。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
A.システム構成
図1には、本明細書で開示する技術を適用することができる車両制御システム2000の構成例を模式的に示している。図示の車両制御システム2000は、駆動系制御ユニット2100と、ボディ系制御ユニット2200と、バッテリー・制御ユニット2300と、車外情報検出ユニット2400と、車内情報検出ユニット2500と、統合制御ユニット2600などの複数の制御ユニットで構成されている。
各制御ユニット2100〜2600は、通信ネットワーク2010を介して相互接続されている。通信ネットワーク2010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、FlexRay(登録商標)などの任意の通信規格に準拠した車載通信ネットワークでよい。また、ローカルに定めたプロトコルでも良い。
各制御ユニット2100〜2600はそれぞれ、例えば、各種プログラムに従って演算処理を行なうマイクロ・コンピューターと、マイクロ・コンピューターにより実行されるプログラム又は各種演算に用いられるパラメーターなどを記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備えている。また、各制御ユニット2100〜2600は、通信ネットワーク2010を介して他の制御ユニットとの間で通信を行なうためのネットワーク・インターフェース(IF)を備えるとともに、車内外の装置又はセンサーなどとの間で有線通信又は無線通信により通信を行なうための通信インターフェースを備えている。
駆動系制御ユニット2100は、各種プログラムに従って車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット2100は、内燃機関や駆動用モーターなどの車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置などの制御装置として機能する。また、駆動系制御ユニット2100は、ABS(Antilock Brake System)やESC(Electronic Stability Control)などの制御装置としての機能を備えてもよい。
駆動系制御ユニット2100には、車両状態検出部2110が接続されている。車両状態検出部2110には、例えば、車体の軸回転運動の角速度を検出するジャイロ・センサー、車両の加速度を検出する加速度センサー、あるいは、アクセル・ペダルの操作量、ブレーキ・ペダルの操作量、ステアリング・ホイールの操舵角、エンジン回転数又は車輪の回転速度などを検出するためのセンサーのうちの少なくとも1つが含まれる。駆動系制御ユニット2100は、車両状態検出部2110から入力される信号を用いて演算処理を行ない、内燃機関や駆動用モーター、電動パワー・ステアリング装置、ブレーキ装置など(いずれも図示しない)を制御する。
ボディ系制御ユニット2200は、各種プログラムに従って車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット2200は、キーレスエントリーシステムやスマートキーシステムといったドアロックの施錠と解除並びにシステム2000の始動と停止に関する制御装置、パワーウィンドウ装置や各種ランプ(ヘッドランプ、バックランプ、ブレーキ・ランプ、ターンシグナル、フォグランプを含む)の制御装置として機能する。ボディ系制御ユニット2200は、鍵に内蔵される(若しくは、鍵を代替する)携帯発信機から送出される電波又は各種スイッチの信号が到来すると、車両のドアロック装置やパワーウィンドウ装置、ランプなど(いずれも図示しない)を制御する。
バッテリー制御ユニット2300は、各種プログラムに従って駆動用モーターの電力供給源である二次電池を制御する。例えば、バッテリー制御ユニット2300には、二次電池を備えたバッテリー装置2310は、二次電池のバッテリー温度やバッテリー出力電圧、バッテリーの残存容量などを計測して、バッテリー制御ユニット2300に出力する。バッテリー制御ユニット2300は、バッテリー装置2310からの入力情報を用いて演算処理を行ない、二次電池の温度調節制御やバッテリー装置2310に備えられた冷却装置(図示しない)などの制御を実施する。
車外情報検出ユニット2400は、車両制御システム2000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット2400には、撮像部2410及び車外情報検出部2420のうちの少なくとも一方が接続されている。
撮像部2410は、いわゆる車載カメラであるが、ToF(Time of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ又はその他のカメラのうちの少なくとも1つが含まれる。車外情報検出部2420には、例えば、現在の天候又は気象を検出するための環境センサーや、周辺車両や障害物、通行人などを検出するための周囲情報検出センサー、音声センサー(車両の周辺で発生する音声を集音するマイク)のうちの少なくとも1つ(いずれも図示しない)が含まれる。車外情報検出部2420が音声センサーの場合、クラクションや急ブレーキ、衝突音など、事故やヒヤリハットに伴う車外の音を取得することができる。
ここで言う環境センサーは、例えば、雨天を検出する雨滴センサー、霧を検出する霧センサー、日照度合いを検出する日照センサー、降雪を検出する雪センサーなどである。また、周囲情報検出センサーは、超音波センサーやレーダー装置、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置などで構成される。
これらの撮像部2410及び車外情報検出部2420は、それぞれ独立したセンサー乃至装置として構成してもよいし、複数のセンサー乃至装置が統合された装置として構成してもよい。
撮像部2410及び車外情報検出部2420の設置位置の一例を図2に示しておく。同図中、撮像部2910、2912、2914、2916、2918は、撮像部2410に相当するが、例えば車両2900のフロントノーズ、サイドミラー、リアバンパー、バックドア及び車室内のフロントガラスの上部のうちの少なくとも1つの位置に配設されている。フロントノーズに備えられる撮像部2910及び車室内のフロントガラスの上部に備えられる撮像部2918は、主として車両2900の前方の画像を捕捉する。車両2900の前方を捕捉した画像に基づいて、先行車両や通行人、障害物、信号機、交通標識、車線などを検出することができる。また、サイドミラーに備えられる撮像部2912,2914は、主として車両2900の側方の画像を捕捉する。また、リアバンパー又はバックドアに備えられる撮像部2916は、主として車両2900の後方の画像を捕捉する。
図2中、撮像範囲aはフロントノーズに設けられた撮像部2910の撮像範囲を示し、撮像範囲b並びにcはそれぞれ左右のサイドミラーに設けられた撮像部2912並びに2914の撮像範囲を示し、撮像範囲dはリアバンパー又はバックドアに設けられた撮像部2916の撮像範囲を示している。例えば、撮像部2910,2912,2914,2916で撮像された画像データを重ね合わることにより、車両2900を上方から見た俯瞰画像を得ることができる。なお、車室内のフロントガラスの上部に設けられた撮像部2918の撮像範囲については、図示を省略する。
車両2900のフロント、リア、サイド、コーナー及び車室内のフロントガラスの上部にそれぞれ設けられる各車外情報検出部2920、2922、2924、2926、2928、2930は、例えば超音波センサーやレーダー装置で構成される。車両2900のフロントノーズ、リアバンパー、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部2920、2926、2930は、例えばLIDAR装置であってよい。これらの車外情報検出部2920〜2930は、主として先行車両、通行人又は障害物などの検出に用いられる。
再び図1を参照しながら、車両制御システム2000の構成に関する説明を続ける。車外情報検出ユニット2400は、撮像部2410に車外の画像を撮像させる(図2を参照のこと)とともに、撮像された画像データを撮像部2410から受信する。また、車外情報検出ユニット2400は、車外情報検出部2420から検出情報を受信する。車外情報検出部2420が超音波センサー、レーダー装置、又はLIDAR装置である場合には、車外情報検出ユニット2400は、超音波又は電磁波などを発信させるとともに、車外情報検出部2420からの反射波の情報を受信する。
車外情報検出ユニット2400は、車外情報検出部2420から受信した情報に基づいて、周囲の人や車両、障害物、標識又は路面上の文字などを認識する画像認識処理や、車外の物体を検出又は認識する物体認識処理、車外の物体までの距離検出処理を行なってもよい。また、車外情報検出ユニット2400は、車外情報検出部2420から受信した情報に基づいて、降雨、霧、又は路面の状態などの周囲環境を認識する環境認識処理を行なってもよい。
なお、車外情報検出ユニット2400は、車外情報検出部2420から受信した画像データに対して歪補正又は位置合わせなどの処理を行なうとともに、異なる撮像部2410により撮像された画像データを合成して俯瞰画像又はパノラマ画像を生成するようにしてもよい。また、車外情報検出ユニット2400は、異なる撮像部2410により撮像された画像データを用いて、視点変換処理を行なうようにしてもよい。
車内情報検出ユニット2500は、車内の情報を検出する。車内情報検出ユニット2500には、例えば、車両を運転するドライバー(以下、単に「ドライバー」とする)の状態を検出する車内状態検出部2510が接続されている。車内情報検出ユニット2500は、車内状態検出部2510から入力されるドライバー状態情報に基づいて、車内の情報を検出する。例えば、車内情報検出ユニット2500は、ドライバーの疲労度合い又は集中度合いを算出してもよいし、ドライバーが居眠りをしていないかを判別する。また、車内情報検出ユニット2500は、さまざまなドライバー状態を検出するとともに、ドライバー(又は、ドライバー以外の搭乗者)によって車両の運転の実施が可能か不可能かを判別する(後述)。ここで言うドライバーとは、車内にいる搭乗者のうち、車内の運転席に座っている搭乗者、あるいは、統合制御ユニット2600が運転を行なうべき人物として記憶している搭乗者を指すものとする。車内情報検出ユニット2500は、搭乗者の座っている位置によってドライバーを検知してもよいし、車内を撮像した画像に含まれる搭乗者の顔に基づいて、あらかじめドライバーとして登録してある顔画像と撮像された顔画像の比較によりドライバーを判別するようにしてもよい。
車内状態検出部2510は、ドライバーや他の搭乗者など車室内を撮像する車載カメラ(ドラモニカメラ)や、ドライバーの生体情報を検出する生体センサー、車室内の音声を集音するマイクなどを含んでもよい。車内情報検出ユニット2500は、マイクで集音された音声信号に対してノイズ・キャンセリングなどの信号処理を行なうようにしてもよい。また、プライバシー保護などの目的で、特定の音声のみ変調をかけてもよい。生体センサーは、例えば、座面又はステアリング・ホイールなどに設けられ、ステアリング・ホイールを握るドライバーやステアリング・ホイールを握るドライバーの生体情報を検出する。マイクは、クラクションや急ブレーキ、搭乗者の音声(悲鳴)など、事故やヒヤリハットに伴う車室内の音を取得することができる。
また、車内状態検出部2510は、運転席やその他の座席に加わる荷重(座席に人が座ったか否か)を検出する荷重センサーを含んでもよい。また、車内状態検出部2510は、アクセルやブレーキ、ステアリング、ワイパー、ターンシグナル、エアコン、その他のスイッチなど、ドライバーが車両を操作するさまざまなデバイスに対する操作に基づいて、ドライバーの状態を検出するようにしてもよい。また、車内状態検出部2510は、ドライバーの運転免許証不所持や運転拒否といったステータスのチェックを行なうようにしてもよい。
統合制御ユニット2600は、各種プログラムに従って車両制御システム2000内の動作全般を制御する。図1に示す例では、統合制御ユニット2600は、マイクロ・コンピューター2610と、汎用通信インターフェース2620と、専用通信インターフェース2630と、測位部2640と、ビーコン受信部2650と、車内機器インターフェース2660と、音声画像出力部2670と、車載ネットワーク・インターフェース2680と、記憶部2690を備えている。また、統合制御ユニット2600には、入力部2800が接続されている。
入力部2800は、例えば、タッチパネルやボタン、マイクロフォン、スイッチ、レバーなど、ドライバーやその他の搭乗者によって入力操作され得る装置で構成される。入力部2800は、例えば、赤外線又はその他の電波を利用したリモート・コントロール装置であってもよいし、車両制御システム2000の操作に対応した携帯電話機やPDA(Personal Digital Assistant)、スマートフォン、タブレットなどの外部接続機器(いずれも図示しない)であってもよい。入力部2800はマイクによる音声入力でもよい。入力部2800は、例えばカメラであってもよく、その場合、搭乗者はジェスチャーにより統合制御ユニット2600に情報を入力することができる。さらに、入力部2800は、例えば、上記の入力部2800を用いて搭乗者らにより入力された情報に基づいて入力信号を生成し、統合制御ユニット2600に出力する入力制御回路などを含んでもよい。ドライバーを始めとする搭乗者らは、この入力部2800を操作することにより、車両制御システム2000に対して各種のデータを入力したり処理動作を指示したりすることができる。
記憶部2690は、マイクロ・コンピューターにより実行される各種プログラムを記憶するRAM(Random Access Memory)、及び各種パラメーター、演算結果やンサーの検出値などを記憶するEEPROM(ElectricallyErasable and Programmable Read Only Memory)を含んでいてもよい。また、記憶部2690は、HDD(Hard Disc Drive)などの磁気記憶デバイスやSSD(Solid State Drive)などの半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイスなどの大容量記憶装置(図示しない)で構成してもよい。大容量記憶装置は、例えば、撮像部2410で撮像した車両周辺や車室内の映像の記録(定常記録や、ヒヤリハット映像のトリガー記録(後述)など)に利用することができる。
汎用通信インターフェース2620は、外部環境2750に存在するさまざまな機器との間の通信を仲介する汎用的な通信インターフェースである。汎用通信インターフェース2620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX、LTE(Long Term Evolution)若しくはLTE−A(LTE−Advanced)などのセルラー通信プロトコル、Wi−Fi(登録商標)などの無線LAN、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装している。汎用通信インターフェース2620は、例えば、セルラー通信における基地局や無線LANにおけるアクセスポイントなどを介して、外部ネットワーク(例えば、インターネット、クラウド・ネットワーク、又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーション・サーバー又は制御サーバー、管理サーバー(後述)など)へ接続することができる。また、汎用通信インターフェース2620は、例えばP2P(Peer To Peer)技術を用いて、当該車両の近傍に存在する端末(例えば、ドライバーや通行人が携帯する情報端末、走行中の道路に隣接する店舗に設置された店舗端末、人間の介在なしに通信ネットワークに接続するMTC(Machine Type Communication)端末(家庭用ガスのメーターや自動販売機など)など)と接続してもよい。
専用通信インターフェース2630は、車両における使用を目的として策定された通信プロトコルをサポートする通信インターフェースである。専用通信インターフェース2630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、又はDSRC(Dedicated Short Range Communications)、セルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信インターフェース2630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車と家の間(Vehicleto Home)及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
測位部2640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部2640は、PlaceEngine(登録商標)などを利用して無線アクセスポイントからの電測情報に基づいて現在位置を特定してもよく、又は測位機能を有する携帯電話機、PHS(Personal Handy−phone System)若しくはスマートフォンといった搭乗者が所持する携帯端末から位置情報を取得するようにしてもよい。
ビーコン受信部2650は、例えば、道路上に設置された無線局などから発信される電波又は電磁波を受信し、車両の現在位置や道路交通情報(渋滞、通行止め、所要時間などの情報)を取得する。なお、ビーコン受信部2650の機能を、上述した専用通信インターフェース2630に含めて実装することも可能である。
車内機器インターフェース2660は、マイクロ・コンピューター2610と車内に存在するさまざまな機器2760との間の接続を仲介する通信インターフェースである。車内機器インターフェース2660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又はWUSB(Wireless USB(Universal Serial Bus))といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器インターフェース2660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB、HDMI(登録商標)(High Definition Multimedia Interface)、MHL(Mobile High−definition Link)などの有線接続を確立してもよい。車内機器インターフェース2660は、例えば、搭乗者が所持するモバイル機器やウェアラブル機器、又は車両に搬入され若しくは取り付けられる車内機器2760との間で、制御信号又はデータ信号を交換する。
車載ネットワーク・インターフェース2680は、マイクロ・コンピューター2610と通信ネットワーク2010との間の通信を仲介するインターフェースである。車載ネットワーク・インターフェース2680は、通信ネットワーク2010によりサポートされる所定のプロトコルに則して、信号などを送受信する。
統合制御ユニット2600のマイクロ・コンピューター2610は、汎用通信インターフェース2620、専用通信インターフェース2630、測位部2640、ビーコン受信部2650、車内機器インターフェース2660、車載ネットワーク・インターフェース2680のうちの少なくとも1つを介して取得される情報に基づいて、各種プログラムに従って、車両制御システム2000を制御する。
例えば、マイクロ・コンピューター2610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット2100に対して制御指令を出力してもよい。例えば、マイクロ・コンピューター2610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自動運転などを目的とした協調制御を行なうようにしてもよい。
また、マイクロ・コンピューター2610は、汎用通信インターフェース2620、専用通信インターフェース2630、測位部2640、ビーコン受信部2650、車内機器インターフェース2660及び車載ネットワーク・インターフェース2680のうちの少なくとも1つを介して取得される情報に基づいて、当該車両の現在位置の周辺情報を含むローカル地図情報を作成するようにしてもよい。また、マイクロ・コンピューター2610は、取得される情報に基づいて、当該車両の衝突、通行人や建造物などの接近、通行止めの道路への進入などの危険を予測して、警告用信号を生成するようにしてもよい。ここで言う警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号である。
また、マイクロ・コンピューター2610は、上述した記憶部2690などを利用して、ドライブ・レコーダー機能を実現するようにしてもよい。具体的には、マイクロ・コンピューター2610は、撮像部2410で撮像した車両周辺や車室内の映像の記録の制御(定常記録や、ヒヤリハット映像のトリガー記録(後述)など)を行なうようにしてもよい。
音声画像出力部2670は、当該車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。出力装置が表示装置の場合、表示装置は、マイクロ・コンピューター2610が行なった各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフなどさまざまな形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データなどからなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。図1に示す例では、出力装置として、オーディオ・スピーカー2710、表示部2720、並びにインストルメント・パネル2730が装備されている。
表示部2720は、例えば、オンボード・ディスプレイ又はヘッド・アップ・ディスプレイの少なくとも1つを含んでいてもよい。ヘッド・アップ・ディスプレイは、フロントガラスを利用してドライバーの視野に(無限遠の点に結像するような)画像を映し出すデバイスである。表示部2720は、AR(Augmented Reality)表示機能を備えていてもよい。上述した以外にも、ヘッドホン、プロジェクター又はランプなどを出力装置として車両に備えていてもよい。
また、インストルメント・パネル2730は、運転席(並びに助手席)の正面に配置され、スピードメーターやタコメーター、燃料計、水温計、距離計といった自動車の走行に必要な情報を指し示すメーター・パネルや、目的地までの走行案内を行なうナビゲーション・システムを含む。
なお、図1に示した車両制御システム2000を構成する複数の制御ユニットのうち少なくとも2つの制御ユニットを物理的に1つのユニットとして一体化して構成してもよい。また、車両制御システム2000が図1に示した以外の制御ユニットをさらに備えていてもよい。あるいは、制御ユニット2100〜2600のうち少なくとも1つを物理的には2以上のユニットの集まりで構成してもよい。また、制御ユニット2100〜2600が担うべき機能のうち一部を他の制御ユニットで実現するようにしてもよい。要するに、通信ネットワーク2010を介した情報の送受信によって実現される上記の演算処理がいずれかの制御ユニットで行なわれるように構成されていれば、車両制御システム2000の構成を変更することが許容される。また、いずれかの制御ユニットに接続されているセンサーや装置類が他の制御ユニットにも接続されていてもよく、あるセンサー又は装置で検出若しくは取得された情報を、通信ネットワーク2010を介して複数の制御ユニット間で相互に送受信するようにしてもよい。
B.ヒヤリハット映像の記録
本実施形態に係る車両制御システム2000では、例えばマイクロ・コンピューター2610が記憶部2690(あるいはその他の大容量記憶装置)を利用して、ドライブ・レコーダー機能を実現することができる。
ドライブ・レコーダーに記録される情報は、事故の前後に自動車の挙動を客観的に判断し、さらに事故防止を目指す上で重要な情報である。言い換えれば、ドライブ・レコーダーの主目的は、事故映像やヒヤリハット映像(以下では、両映像をまとめて「ヒヤリハット映像」と呼ぶことにする)を記録することにある。したがって、記憶部2690などに記録できる有限時間の中で、時々刻々と検出される車両の情報を定常記録(有限時間の中で上書き保存)しつつ、ヒヤリハット映像を正確に抽出して記録する必要がある。
事故やヒヤリハットの事象を検出したことに応答してヒヤリハット映像を記録することを、「トリガー記録」と呼ぶことにする。トリガー記録は、事故やヒヤリハットの事象を検出したことに応答して、定常記録とは別に設けられたトリガー記録専用の記憶装置(若しくは、トリガー記録専用の記憶領域)にヒヤリハット映像を記録する方法や、定常記録を行なう記憶装置に対してヒヤリハット映像の上書き禁止区間を指定する方法などがある。
従来のドライブ・レコーダーの多くは、加速度センサーの情報に基づいて事故やヒヤリハットの事象を検出している。しかしながら、加速度センサーの情報を利用する場合、事故やヒヤリハットに伴う加速度変化と、路面の段差や凹凸、運転者の運転の仕方などに起因する加速度変化を見分けるのが難しい。また、加速度センサーの情報では、車両の自重よりずっと軽いものとの衝突や駐車中のいたずらなどに反応できないケースもある。この結果、誤検出によるトリガー記録が頻発し、ヒヤリハット映像が多くの誤検出映像の中に埋没してしまうという問題がある。
そこで、本明細書では、車載カメラの撮像映像に含まれる物体の認識結果に基づいて検出されるヒヤリハット特徴に応じて、より高精度にヒヤリハット映像のトリガー記録を行なう技術について開示する。
本明細書で開示する技術によれば、車載カメラの映像の物体認識結果に基づくヒヤリハット特徴に応じてヒヤリハットが発生したことを検出するので、路面の段差や凹凸、運転者の運転の仕方などに起因する加速度変化からヒヤリハットの事象を誤検出することがなくなり、トリガー記録の精度が向上する。すなわち、誤検出映像の記録を抑制することができ、ヒヤリハット映像を検索、管理する手間を大幅に削減することができる。本明細書で開示する技術のかかる効果は、近年の車載カメラ映像に対する認識技術の向上にも依拠する。
また、本明細書で開示する技術によれば、車両の自重よりもずっと軽いものとの衝突や、駐車中のいたずらなど、加速度変化が小さいヒヤリハットの事象も、車載カメラの映像の物体認識結果に基づいて検出することができる。
本明細書で開示する技術によれば、映像に映った物体の認識結果に基づいてヒヤリハットの事象を検出するので、車両上のリアルタイム処理としてトリガー記録を行なう以外に、自動車の運転が終了した後にPC(Personal Computer)やサーバーなど車両外の装置上で事後処理としてもトリガー記録を行なうことができる。勿論、既に稼働しているドライブ・レコーダーの記録映像に対しても、高精度なトリガー記録を実施することができる。
本明細書で開示する技術は、車載カメラによる撮像映像の物体認識結果に基づいてヒヤリハットの事象を検出することを基本とするが、距離画像(depth map)を組み合わせることによって、ヒヤリハットをさらに高精度に検出することができる。例えば、撮像部2410にステレオカメラを用いることで、距離画像を取得することができる。
また、本明細書で開示する技術は、車載カメラによる撮像映像の物体認識結果に基づいて検出されるヒヤリハット特徴と、(車両の現在位置の)地図情報とを組み合わせることで、より高精度にヒヤリハット映像のトリガー記録を行なうことができるようになる。
また、本明細書で開示する技術は、車載カメラによる映像の物体認識結果に基づいて検出されるヒヤリハット特徴と、加速度センサーやその他の各種センサーによる検出情報とを組み合わせることで、より高精度にヒヤリハット映像のトリガー記録を行なうことができるようになる。
本明細書で開示する技術は、撮像部2410で撮像された車両周辺(すなわち、車外)の映像だけでなく、車室内を撮像するドラモニカメラの映像についても物体認識した結果に基づいてヒヤリハット特徴を検出するようにしてもよい。
B−1.ヒヤリハット特徴
ここで、トリガー記録の対象となるヒヤリハットについて考察する。
ヒヤリハットを、自車両の運転が原因となるヒヤリハットと、周辺車両の運転が原因となるヒヤリハットと、車両の運転以外が原因となるヒヤリハットの3種類に大別することができる。
自車両の運転によるヒヤリハットの原因として、自車両の異常運転と、自車両の違反運転を挙げることができる。
自車両の異常運転には、例えば自車両のスピンやスリップが含まれる。自車両の運転が異常になると、撮像部2410などの車載カメラで撮像した前方又は後方の道路が画面内で異常な軌道となる。したがって、車載カメラで撮像した映像から、道路を物体認識して、自車両の異常運転を検出することができる。例えば、車載カメラで撮像した道路から、車道中央線、車線境界線、車線境界線などの区画線を抽出して、道路を物体認識することができる。また、自車両がスピンした際には、車線に対してステアリングの方向が異常となることから、車両状態検出部2110が検出したステアリング・ホイールの操舵角を道路の物体認識結果と併せて利用することで、より高精度に異常を検出することができる。
また、衝突を回避するためにドライバーが急ブレーキや急ハンドルなどの運転操作を行なったことにより、スピンやスリップなどの自車両の異常運転が引き起こされることもある。このような場合、車載カメラで撮像した自車両周辺の映像から、自車両以外の物体(周辺車両や通行人、動物、道路工事、ガードレール、電柱、建造物、その他の障害物)を物体認識することによって、自車両の異常運転を検出することができる。自車両が左右折する際、死角が生じ易い。車載カメラで撮像した自車両周辺の映像から、死角位置に存在する物体も認識することができる。
雪や雨などの天候や、路面の凍結など道路の状態といった周囲環境に起因して、スピンやスリップなどの自車両の異常運転が発生することもある。車載カメラで撮像した自車両周辺の映像から、降雪や降雨、路面を物体認識することによって、周囲環境の悪化による自車両の異常運転を迅速若しくは事前に検出することができる。
さらに、脇見や漫然運転、ドライバーの離席(ハンドルを長時間離していることを含む)、居眠り運転、意識喪失など、ドライバーの状態(異常な挙動)によって自車両が異常運転となることもある。このような場合、撮像部2410による車外(自車両周辺)の映像の物体認識に加え、ドラモニカメラや生体センサーなど車内状態検出部2510によるドライバー状態の検出結果も利用して、自車両の異常運転を検出することができる。また、撮像部2410による車外の撮像映像をトリガー記録するだけでなく、ドラモニカメラによる車室内の撮像映像もトリガー記録するようにしてもよい。
また、自車両の違反運転は、その後に事故やヒヤリハットにつながる可能性がある。自車両の違反運転として、自車両の車線を逸脱した走行、制限速度違反、停止線の無視、信号無視、一方通行違反、その他の標識違反など、自車両が道路交通法規に違反した運転を挙げることができる。ここで言う交通法規は、例えば道路交通法である。また、違反には、交通法規の違反の他、交通ルールやマナーに反する行為を含めるようにしてもよい(以下、同様)。
車載カメラで撮像した映像から、道路に引かれた区画線(車道中央線、車線境界線、車道外側線など)や横断歩道、路側帯、信号機などを物体認識したり、道路脇に設置されたり路面に描かれたりした各種の道路標識の物体認識結果から走行中の道路に適用されている規制(一方通行など)を特定したりし、自車両の運転が交通規制を遵守していないときには違反運転を検出することができる。また、必要に応じて、(自車両の現在位置における)地図情報を用いて、制限速度や一方通行など走行中の道路に規定されている交通規制などの情報を取得するようにしてもよい。
自車両がスピンやスリップを起こすと、車体の加速度変化を伴う。また、自車両の異常運転の多くは、急ブレーキや急ハンドルなどの運転操作が行なわれて加速度変化を伴うので、加速度センサーの検出結果を用いても検出することができる。但し、異常運転が加速度変化を伴うとは限らず、また、加速度変化が異常運転に起因するとも限らない。一方、自車両の違反運転の場合、ドライバーが道路標識を見落とすなど走行中の道路に規定されている交通規制を看過したときには急ブレーキや急ハンドルなどの運転操作が行なわれないため、そもそも加速度センサーの検出結果に基づいて検出するのは困難である。これに対して、本明細書で開示する技術によれば、車載カメラで撮像した映像の物体認識結果に基づいて、自車両の異常運転だけでなく違反運転について、好適に検出することができる。
周辺車両の運転によるヒヤリハットの原因として、周辺車両の異常運転と、周辺車両の違反運転を挙げることができる。
周辺車両の異常運転には、周辺車両(とりわけ、先行車両)同士の接近、周辺車両の自車両への接近などが含まれる。車載カメラで撮像した映像から周辺車両を物体認識して、周辺車両同士の接近や自車両への接近を検出することができる。さらに距離画像を併用することで、周辺車両間の距離や自車両と周辺車両間の距離をより高精度に測定することができる。
また、周辺車両の違反運転は、自車両を巻き込んで事故やヒヤリハットにつながる可能性がある。周辺車両の違反運転として、周辺車両の車線を逸脱した走行、制限速度違反、停止線の無視、信号無視、一方通行違反、その他の標識違反を挙げることができる。車載カメラで撮像した映像から、道路に引かれた区画線(車道中央線、車線境界線、車道外側線など)や路側帯などを物体認識したり、道路脇に設置されたり路面に描かれたりした各種の道路標識の物体認識結果から走行中の道路に適用されている規制(一方通行など)を特定したりする(同上)。必要に応じて、(自車両の現在位置における)地図情報を用いて交通規制などの情報を取得するようにしてもよい。そして、車載カメラで撮像した映像に基づいて物体認識された周辺車両が、交通規制を遵守していないときには違反運転を検出することができる。
異常運転や違反運転を行なう周辺車両が接近してくるなど、自車両に危険を及ぼす場合には、ドライバーが急ブレーキや急ハンドルなどの運転操作を行なうと加速度変化を伴うので、加速度センサーの検出結果を用いてもヒヤリハットを検出することができる。しかしながら、異常運転や違反運転を行なう周辺車両がドライバーの死角にありドライバーが看過したときには急ブレーキや急ハンドルなどの運転操作が行なわれないため、加速度センサーの検出結果に基づいてヒヤリハットを検出するのは困難である。また、ドライバーが周辺車両の違反運転に気づかないことも多い。これに対し、本明細書で開示する技術によれば、車載カメラで撮像した映像の物体認識結果に基づいて、自車両だけでなく周辺車両の異常運転や違反運転について、好適に検出することができる。付言すれば、周辺車両の異常運転や違反運転の映像は、自車両のヒヤリハットや事故に結び付かなくても、その後に周辺車両が事故を起こすこともあり、トリガー記録を行なうに値する。
なお、特許文献1には、外部映像を画像認識した結果に基づいてドライブ・レコーダーへの記録の開始をコントロールする運転支援装置について開示しているが、先行車両のストップランプやハザードランプ、ターンシグナルの点灯を認識するにとどまる。言い換えれば、特許文献1に記載の技術によれば、先行車両の大まかな挙動に基づいて映像の記録を制御するので、先行車両の異常運転以外の(すなわち、ヒヤリハットでない)映像も誤記録してしまう可能性が高く、また、特許文献1に記載の技術では、先行車両以外の周辺車両の異常運転や、周辺車両の違反運転に関するヒヤリハット映像を記録することはできないと思料される。
車両(自車両及び周辺車両)の運転以外によるヒヤリハットの原因として、雪や雨などの天候や、路面の凍結など道路の状態、障害物となるような車両以外の物体(周辺車両や通行人、動物、道路工事、ガードレール、電柱、建造物、その他の障害物)の存在といった周囲環境を挙げることができる。車載カメラで撮像した自車両周辺の映像から、降雪や降雨、路面、周辺の物体などの周囲環境を物体認識することによって、車両運転以外のヒヤリハットの原因を検出することができる。
天候や路面の状態の影響により自車両がスピンやスリップを起こすと、車体の加速度変化を伴うので、加速度センサーの検出結果を用いても検出することができる。また、自車両に物体が接近してきたときに、ドライバーが急ブレーキや急ハンドルなどの運転操作を行なうと、加速度変化を伴うので、加速度センサーの検出結果を用いても検出することができる。しかしながら、周囲環境が劣悪若しくは好ましくない状態であっても、まだ車両がスピンやスリップを起こしておらず、ドライバーが急ブレーキや急ハンドルなどの運転操作を行なっていないと、加速度センサーの検出結果に基づいて検出するのは困難である。これに対し、本明細書で開示する技術によれば、車載カメラで撮像した映像の物体認識結果に基づいて、ヒヤリハットの原因となる周囲環境を好適に検出することができる。
本明細書で開示する技術では、基本的には車載カメラで撮像した映像の物体認識結果に基づいて、ヒヤリハット映像を記録するトリガーとなるヒヤリハット特徴を検出するが、必要に応じて距離画像や地図情報と組み合わせて検出精度を向上させ、また加速度センサーなど各種センサーの検出結果と併用してもよい。また、ヒヤリハットの程度を数値化した「ヒヤリハット特徴量」として測定して、閾値判定によりヒヤリハット特徴を検出するようにしてもよい。
本明細書で開示する技術では、上述した3種類のヒヤリハットの原因を踏まえて、ヒヤリハット映像を記録するトリガーとなるヒヤリハット特徴として、(1)衝突に結び付く物体の接近、(2)スピン・スリップ、(3)違反運転(自車両及び周辺車両を含む)、(4)音声、(5)車室内異常、(6)その他の自車両周辺の異常、の6種類を定義する。以下、各ヒヤリハット特徴について、検出方法とともに説明する。
(1)衝突に結び付く物体の接近
衝突に結び付く物体の接近に関するヒヤリハット特徴として、周辺車両同士の接近、自車両と周辺車両の接近、車両以外の物体(通行人、動物、道路工事、ガードレール、電柱、建造物、その他の障害物)の接近などを挙げることができる。衝突に結び付く物体の接近は、自車両の運転が原因となる場合と、周辺車両の運転が原因となる場合がある。
周辺車両や、車両以外の上記物体がこのヒヤリハット特徴を検出するための物体認識の対象であり、撮像部2410などの車載カメラで撮像した自車両周辺の映像を物体認識処理して、周辺車両や物体を認識する。ドライバーの視野外の領域も車載カメラで撮像することで、左右折の際の死角位置の物体も認識することができる。
次いで、認識した周辺車両間、認識した周辺車両と自車両間、認識した物体と自車両間の距離も測定する。映像に加えて距離画像も利用することで、距離をより高精度に測定することができる。そして、周辺車両間、周辺車両と自車両間、物体と自車両間の衝突が不可避、又は衝突する可能性が高いことが車速から判断されると、ヒヤリハット特徴として検出する。物体間の距離や、距離を車速で割った時間に基づいて数値化したヒヤリハット特徴量を算出するようにしてもよい。そして、ヒヤリハット特徴量が所定の閾値を超えたときに、映像からヒヤリハット特徴を検出したと判定して、ヒヤリハット映像の記録のトリガーとしてもよい。
雪や雨などの天候や、路面の凍結など周囲環境が劣悪になると、ブレーキを踏んでからの停止距離が長くなる。そこで、算出したヒヤリハット特徴量に、周囲環境に応じた重みを付けて、ヒヤリハット特徴の判定を行なうようにしてもよい。天候や路面状態に応じて、ヒヤリハット特徴を検出し易くなるように操作することができる。降雪や降雨をさらに物体認識の対象としたり、車外情報検出部2420に含まれる環境センサー(前述)の検出結果を併用したりしてもよい。
なお、特許文献1には、外部映像を画像認識した結果に基づいてドライブ・レコーダーへの記録の開始をコントロールする運転支援装置について開示しているが、先行車両のストップランプやハザードランプ、ターンシグナルの点灯を認識するにとどまる。言い換えれば、特許文献1に記載の技術によれば、先行車両との衝突を大雑把に判定して映像の記録を制御するので、周辺車両同士の接近や、自車両と先行車両以外の周辺車両との接近、車両以外の障害物との接近などのヒヤリハット映像を記録することはできないと思料される。
(2)スピン・スリップ
一般には、スピンは、タイヤが路面に対して滑って車体が回転して、進みたい方向と車体の向きが大幅に違ってしまうことである。また、タイヤが滑っても車体がそれほど回転しなければ、スリップである。スピン・スリップは、自車両の異常運転である。
自車両がスピンやスリップを起こすと、撮像部2410などの車載カメラで撮像した前方又は後方の道路が画面内で異常な軌道となる。したがって、スピンやスリップに関するヒヤリハット特徴を検出する際、道路が物体認識の対象である。撮像部2410などの車載カメラで撮像した自車両周辺の映像を物体認識処理して、道路や、道路に引かれた区画線(車道中央線、車線境界線、車道外側線など)、路肩、路側帯などを認識する。そして、認識した道路が画面内で異常な軌道となったときに、スピン又はスリップのヒヤリハット特徴として検出する。
また、物体認識した車線に対してステアリングの方向が異常となると、ヒヤリハット特徴として検出する。車両状態検出部2110が検出したステアリング・ホイールの操舵角を併せて利用することで、より高精度にヒヤリハット特徴を検出することができる。
また、車載カメラで撮像した映像の画面全体が水平にスライドするなど、自車両が直進したり、左右折したりする場合とは異なる動きとなった場合には、スピン又はスリップのヒヤリハット特徴として検出する。
区画線(車道中央線、車線境界線、車道外側線など)に基づいて道路を認識することができる。そして、物体認識された道路の画面内での変位量や、認識された道路の方向に対するステアリングの方向のなす角度、車載カメラで撮像した映像の画面全体の水平方向の変位量などに基づいて、数値化したヒヤリハット特徴量を算出するようにしてもよい。そして、ヒヤリハット特徴量が所定の閾値を超えたときに、ヒヤリハット特徴を検出したと判定して、ヒヤリハット映像の記録のトリガーとしてもよい。
雪や雨などの天候や、路面の凍結など周囲環境が劣悪になると、スピンやスリップなどの自車両の異常運転が発生し易くなる。そこで、算出したヒヤリハット特徴量に、周囲環境に応じた重みを付けて、ヒヤリハット特徴の判定を行なうようにしてもよい。天候や路面状態に応じて、ヒヤリハットを検出し易くなるように操作することができる。降雪や降雨をさらに物体認識の対象としたり、車外情報検出部2420に含まれる環境センサー(前述)の検出結果を併用したりしてもよい。
(3)違反運転
ここで言う違反運転は、自車両の違反運転と周辺車両の違反運転の双方を対象とする。交通法規(道路交通法など)や交通ルール、マナーに違反した運転は、ヒヤリハットや事故に結び付き易いからである。車両だけでなく、通行人や自転車の違反行為も同様である。違反運転に関するヒヤリハット特徴として、車線を逸脱した走行(車線境界線を長時間跨いだ走行、追い越しではないタイミング(追越しのための右側部分はみ出し通行禁止を含む)や先行車両がない状況での車線境界線を跨いだ走行)、路側帯の走行、制限速度の超過、停止線位置で正しく停止しない、信号無視、一方通行違反、その他道路標識に対する違反、合図不履行違反(左折し、右折し、転回し、徐行し、停止し、後退し、又は同一方向に進行しながら進路を変えるときに、ターンシグナルなどにより正しく合図しない、又は合図とは異なる運転をする)を挙げることができる。また、車両の違反運転ではないが、横断歩道ではない場所で横断している通行人や自転車の違反行為も、便宜上このカテゴリーに含めて扱う。
違反運転に関するヒヤリハット特徴を検出する際、道路や道路に引かれた区画線(車道中央線、車線境界線、車道外側線など)、停止線、横断歩道や路側帯、信号機、道路標識、周辺車両のターンシグナル(の点灯)が物体認識の対象である。
例えば、道路に設置されたり路面に描かれたりした道路標識を物体認識して、現在走行している道路で規定されている規制(一方通行など)の内容を取得することができる。必要に応じて、地図情報を用いて、走行中の道路に規定されている交通規制などの情報を取得するようにしてもよい。そして、自車両であれば、映像に含まれる道路や風景の物体認識により得られる走行状況や、車両状態検出部2110で検出される走行状況と、道路標識の物体認識や地図情報に基づいて得られた道路の規制の情報とを比較し、一致しなければ、自車両の違反運転に関するヒヤリハット特徴として検出する。また、周辺車両であれば、映像から物体認識された周辺車両の走行状況を解析して、道路標識の物体認識や地図情報に基づいて得られた道路の規制の情報を比較し、一致しなければ(例えば、周辺車両が一方通行を違反した路地から出現したとき)、周辺車両の違反運転に関するヒヤリハット特徴として検出する。
停止線違反については、道路上の停止線を物体認識し、現在の車両の車速又は加速度と停止線位置までの関係から、停止が不可能であると違反運転(停止位置無視)に関するヒヤリハット特徴として検出する。信号機違反については、信号機の赤信号又は黄信号を物体認識し、現在の車両の車速又は加速度と物体認識した信号機の位置までの関係から、停止が不可能であると違反運転(信号無視)に関するヒヤリハット特徴として検出する。自車両であれば、車両状態検出部2110が自車両の車速又は加速度を検出する。また、周辺車両であれば、物体認識によりその車速又は加速度を検出する。
自車両の合図不履行違反については、ボディ系制御ユニット2200で制御されるターンシグナルの点灯と、車両状態検出部2110で検出されるステアリング・ホイールの操舵方向とが一致しないときに、自車両の合図不履行違反に関するヒヤリハット特徴を検出する。また、自車両ではなく、周辺車両や通行人の違反に関するヒヤリハット特徴を検出する際には、周辺車両や通行人が物体検出の対象となる。周辺車両の合図不履行違反については、周辺車両の走行状況(停止や左右折など)とターンシグナルの点灯をともに物体認識して、走行状況とターンシグナルの点灯が一致しないときに(周辺車両がターンシグナルの点灯方向とは異なる方向に曲がったとき、又は、周辺車両がターンシグナルの点灯なしに左右折したとき)、周辺車両の合図不履行違反に関するヒヤリハット特徴を検出する。
自車両や周辺車両の違反運転、さらには通行人の違反に関する上記のヒヤリハット特徴を検出すると、ヒヤリハット映像の記録のトリガーとする。
(4)音声
衝突に結び付くような物体の接近や自車両の異常運転を、物体認識では検出できないが、ドライバーや搭乗者が目視や五感によって気づくことがある。例えば、衝突に結び付くような物体が接近したり、車両がスピンやスリップしたりした際には、ドライバーがクラクションを鳴らしたり急ブレーキを踏んだり、衝突音が発生したり、ドライバーやその他の搭乗者が音声(悲鳴)を発したりするが、これらは車室内でも観測される。そこで、車室内で観測される異常な音声をヒヤリハット特徴として検出するようにする。異常な音声は、自車両の運転が原因となる場合と、周辺車両の運転が原因となる場合、さらには周囲環境が原因となる場合がある。
車内情報検出ユニット2500は、車室内音声を集音するマイクを含んでいる(前述)。マイクで集音した車室内音声を認識することによって、叫び声や、クランション、急ブレーキ音、衝突音を検出することができる。車載カメラで撮像した映像の物体認識結果と車室内音声の認識結果を相補的に用いて、ヒヤリハット特徴を検出して、ヒヤリハット映像をトリガー記録するようにしてもよい。また、車室内音声に基づいてヒヤリハット特徴を検出した場合には、ドライブ・レコーダーがヒヤリハット映像の記録に併せて車室内音声の録音も行なうようにしてもよい。
但し、車室内での搭乗者間の会話にはプライバシー情報も含まれる。そこで、プライバシー保護の観点から、ドライバーなど事前に音声登録した人以外の音声は変調を掛けるようにしてもよい。
(5)車室内異常
ドライバーの状態(異常な挙動)によって自車両が異常運転となることもある。車室内異常に関するヒヤリハット特徴として、脇見や漫然運転、ドライバーの離席(ハンドルを長時間離していることを含む)、居眠り運転、意識喪失など、ドライバーの異常な挙動を検出するようにしてもよい。車室内異常は、基本的には、自車両の運転を原因とする。
車室内異常に関するヒヤリハット特徴を検出する場合、ドライバーやその他の搭乗者を物体認識の対象とする。撮像部2410で車外を撮像した映像からは、ドライバーの状態を認識することはできない。そこで、車内状態検出部2510に含まれるドラモニカメラで撮像した映像に対して物体認識を行なうようにする。
なお、車室内異常に関するヒヤリハット特徴を検出したときには、ヒヤリハット映像をトリガー記録することに併せて、ドライバーやその他の搭乗者に通知して、危険を回避するようにしてもよい。通知方法として、警告音を発することや、インストルメント・パネルに表示すること、座席に力や振動、動きなどを与えるようなハプティック・デバイスを利用すること、搭乗者が所持するスマートフォンなどの情報端末の機能(警告音などの音声出力や画像表示、バイブレーション機能)を利用することなどを挙げることができる。
(6)その他の自車両周辺の異常
上述した(1)〜(5)に含まれないヒヤリハット特徴を、その他の自車両周辺の異常に関するヒヤリハット特徴として検出する。
例えば、周辺車両の合図不履行違反をヒヤリハット特徴として検出するために、周辺車両のターンシグナルを物体認識の対象とすることを既に述べた。その他の自車両周辺の異常に関するヒヤリハット特徴として、先行車両のストップランプの急な点灯や、先行車両のハザードランプの点灯を検出するようにしてもよい。先行車両のストップランプの急な点灯により、先行車両が急停止しようとしていることが分かり、自車両も早めにブレーキを踏むか他の車線へ車線変更する必要がある。また、先行車両のハザードランプの点灯により、先行車両が停止中又は駐車中であることが分かり、自車両は他の車線へ車線変更する必要がある。
なお、各ヒヤリハット特徴を検出するための物体認識の対象や、物体認識以外に利用する情報(センサー情報など)を、以下の表1にまとめておく。
Figure 2017138694
B−2.ヒヤリハット映像をトリガー記録するためのシステム構成
図3には、ヒヤリハット映像の記録を制御する映像処理装置300の機能的構成を模式的に示している。図示の映像処理装置300は、映像取得部301と、物体認識部302と、加速度センサー303と、検出部304と、音取得部305と、音認識部306と、コントロール部307と、映像記録部308と、メモリー309を備えている。映像処理装置300は、例えば図1に示した車両制御システム100の1つの機能として実現され、車両に搭載して用いられることを想定している。
映像取得部301は、車両に搭載され、車外(車両周辺)と車室内を撮像する1台以上の車載カメラで撮像された映像を取得する。ここで言う車載カメラは、例えば、図1に示した車両制御システム2000中の、撮像部2410や、車内状態検出部2510に含まれるドラモニカメラに相当する。撮像部2410が複数の車載カメラからなり、車両の周辺を撮像する点は、図2を参照しながら説明した通りである。
物体認識部302は、映像取得部301で取得した車両周辺の映像や車室内の映像に対して物体認識処理を行ない、認識結果に基づいてヒヤリハット特徴を検出する。物体認識部302は、撮像部2410で撮像された画像データを受信する車外情報検出ユニット2400や、ドラモニカメラで撮像された画像データを受信する車内情報検出ユニット2500に相当する。物体認識部302が検出するヒヤリハット特徴の定義や、各ヒヤリハット特徴を検出するために認識対象となる物体は、既に説明した通りである(表1を参照のこと)。
物体認識部302は、例えばスピン・スリップに関するヒヤリハット特徴を検出する際に、映像に映っている降雪や降雨などを物体認識した結果に基づいて天候を判断して、天候に応じた重み付け処理を行なうようにしてもよい(前述)。あるいは、車外情報検出部2420に含まれる環境センサーで検出された天候又は気象の情報を利用するようにしてもよい。
加速度センサー303は、車両に加わる加速度を計測する。検出部304は、加速度センサー303で計測された加速度の変化を検出し、加速度変化が所定の閾値以上になると、検出信号をコントロール部307に出力する。加速度センサー303は、例えば図1に示した車両制御システム2000中の車両状態検出部2110に含まれている。また、検出部304は、車両状態検出部2110から入力される信号を用いて演算処理を行なう駆動系制御ユニット210に相当する。
加速度センサー303によって計測される加速度は、車両の事故に伴う衝撃や、ヒヤリハットに伴う急ブレーキや急ハンドルなどの運転操作によって変化する他、路面の段差や凹凸、運転者の運転の仕方などにも起因して変化する。したがって、検出部304が出力する検出信号は、事故やヒヤリハットを示すとは限らない。
音取得部305は、車室内や車両周辺で発生する音を集音して、音認識部306に音声信号を出力する。音認識部306は、音声認識処理を行ない、車室内の叫び声やクラクション、急ブレーキ音、衝突音などの異常音を検出すると、検出信号をコントロール部307に出力する。本明細書で開示する技術において定義するヒヤリハット特徴のうち、車室内異常は、車載カメラで撮影した映像の物体認識に基づかず、音認識部306により検出されるものとする。
音取得部305は、例えば、図1に示した車両制御システム2000中の車外情報検出部2420に含まれる音声センサーや、車内状態検出部2510に含まれる車室内の音声を集音するマイクに相当する。また、音声認識部306は、車外状態検出部2420からの受信信号に基づいて各種の認識・検出処理を行なう車外情報検出ユニット2400や、車内状態検出部2510からの入力信号に基づいて車内の状態を検出する車内情報検出ユニット2500に相当する。
コントロール部307は、基本的には、物体認識部302から出力されるヒヤリハット特徴の検出信号に応じて、映像取得部301で取得される車載カメラの撮影映像のトリガー記録の制御を行なう。コントロール部307は、例えば図1に示した車両制御システム2000中の統合制御ユニット2600若しくはマイクロ・コンピューター2610に相当するが、あるいは車両制御システム2000に含まれる複数の制御ユニットによって実現することもできる。
図3に示す映像処理装置300では、トリガー記録として、映像取得部301で取得した映像の定常記録(有限時間の中で上書き保存)とは別ファイルとして、ヒヤリハット映像の記録を行なう。但し、定常記録を行なう記憶装置に対してヒヤリハット映像の上書き禁止区間を指定するメタ情報を付加するというトリガー記録の方法もある。
コントロール部307は、物体認識部302からヒヤリハット特徴の検出信号が入力されたことに応答して、車載カメラで撮像した映像からヒヤリハット映像の抽出処理を制御する。具体的には、コントロール部307は、ヒヤリハット映像のトリガー記録を指示するトリガー信号(記録トリガー)を出力したり、ヒヤリハット特徴が検出された区間の上書き禁止を指定したメタ情報を生成したりする。また、コントロール部307は、ヒヤリハット特徴の検出信号だけでなく、検出部304からの加速度変化に関する検出信号も参照して記録トリガーの出力を制御するようにしてもよい。また、コントロール部307は、音認識部306による車室内の異常を示す音(クラクションや急ブレーキ音、衝突音など)の認識結果に基づいて記録トリガーの出力を制御するようにしてもよい。
映像記録部308は、例えば統合制御ユニット2600内の記憶部2690に含まれる、磁気記憶デバイスや半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイスなどの、上書き保存が可能な大容量記憶装置に相当する。また、メモリー309は、記憶部2690に含まれるRAMやEEPROMなどであり、作業データの一時的な保存に利用することができる。
映像記録部308は、映像取得部301で取得される、車載カメラで撮像した映像を、有限時間の中で上書き保存しながら、定常記録映像310として記録する。
また、映像記録部308は、コントロール部307から記録トリガーを受信すると、映像取得部301で取得中の映像はヒヤリハット映像であると判定して、記録トリガーが発生した前後の映像を、定常記録映像とは別ファイルとなるトリガー記録映像311として記録する。映像記録部308は、トリガー記録を実行する際に、記録トリガーの前後映像をメモリー309に一時的に保存することができる。
但し、映像記録部308は、コントロール部307からの記録トリガーに応答して、ヒヤリハット映像の保護のために、定常記録映像310中の上書き禁止区間を指定するメタ情報を付加するというトリガー記録の方法もある。
図4には、図3に示した映像処理装置300においてヒヤリハット映像のトリガー記録を制御するための処理手順をフローチャートの形式で示している。
映像取得部301は、車両に搭載され、車外(車両周辺)と車室内を撮像する1台以上の車載カメラで撮像された映像を取得する(ステップS401)。
なお、映像処理装置300では、ヒヤリハット映像のトリガー記録制御と並行して、映像取得部301で取得した映像の定常記録が行なわれるものとする。
物体認識部302は、映像取得部301で取得した車両周辺の映像や車室内の映像に対して物体認識処理を行ない、ヒヤリハットの程度を示すヒヤリハット特徴量を抽出する(ステップS402)。天候など自車両の周辺環境に応じて、ヒヤリハット特徴量に重み付け(前述)を行なうようにしてもよい。
次いで、物体認識部302は、ヒヤリハット特徴量を所定の閾値と大小比較する(ステップS403)。ここで、ヒヤリハット特徴量が閾値を超えたときには、ヒヤリハット特徴を検出したと判定して(ステップS403のYes)、物体認識部302は、コントロール部307に対してヒヤリハット特徴の検出信号を出力する。そして、コントロール部307は、映像記録部308に対して、記録トリガーを出力して(ステップS404)、ヒヤリハット映像のトリガー記録を指示する。
コントロール部307は、物体認識部302からのヒヤリハット特徴の検出信号だけでなく、検出部304からの加速度変化に関する検出信号も参照して記録トリガーの出力を制御するようにしてもよい。また、コントロール部307は、音認識部306による車室内の異常を示す音(クラクションや急ブレーキ音、衝突音など)の認識結果に基づいて記録トリガーの出力を制御するようにしてもよい。
映像記録部308は、映像取得部301で取得される、車載カメラで撮像した映像を、有限時間の中で上書き保存しながら、定常記録映像310を記録している。
そして、映像記録部308は、コントロール部307から記録トリガーを受信すると、映像取得部301で取得中の映像はヒヤリハット映像であると判定して、記録トリガーが発生する前後の映像を、定常記録映像とは別ファイルとなるトリガー記録映像311として記録する(ステップS405)。映像記録部308は、トリガー記録を実行する際に、記録トリガーの前後映像をメモリー309に一時的に保存することができる。
あるいは、上記のステップS404〜S405で実施する処理を、ヒヤリハット特徴が検出された区間の上書き禁止を指定したメタ情報を生成し、定常記録得310にこのメタ情報を付加する処理に置き換えてもよい。
例えば映像処理装置300がドライブ・レコーダーとして機能している間、上記の各ステップS401〜S405における処理が繰り返し実行される。
図5には、図3に示した映像処理装置300の変形例としての映像表示装置500の機能的構成を示している。図示の映像処理装置500は、映像取得部501と、加速度センサー503と、検出部504と、音取得部505と、音認識部506と、コントロール部507と、映像記録部508と、メモリー509を備えている。映像処理装置500は、例えば図1に示した車両制御システム100の1つの機能として実現され、車両に搭載して用いられることを想定している。映像処理装置500が備える機能モジュールのうち、図3に示した映像処理装置300に含まれる機能モジュールと同じ名称のものは同じ機能を備えているものとする。
映像取得部501は、車両に搭載され、車外(車両周辺)と車室内を撮像する1台以上の車載カメラで撮像された映像を取得する(同上)。映像記録部508は、大容量記憶装置を含み、映像取得部501で取得され映像を定常記録映像510として記録する。説明の便宜上、上書きなしに定常記録映像510の記録が行なわれるものとする。
加速度センサー503は、車両に加わる加速度を計測する。検出部504は、加速度センサー503で計測された加速度の変化を検出し、加速度変化が所定の閾値以上になると、検出信号をコントロール部507に出力する。
音取得部505は、車室内や車両周辺で発生する音を集音して、音認識部506に音声信号を出力する。音認識部506は、音声認識処理を行ない、車室内の叫び声やクラクション、急ブレーキ音、衝突音などの異常音を検出すると、検出信号をコントロール部507に出力する。
コントロール部507は、検出部504で検出された加速度変化に関する検出信号や、音認識部506で認識された異常音(クラクション、急ブレーキ音、衝突音など)に関する検出信号から、車両の加速度変化や車室内並びに車外で発生した音に関するメタ情報を、映像記録部508に出力する。映像記録部508は、定常記録映像510にこのメタ情報を付加して記録する。
映像処理装置500の、図3に示した映像処理装置300との主な相違点は、ヒヤリハット映像の抽出処理を、車両に搭載される映像処理装置500内ではなく、車外に(若しくは、映像処理装置500とは物理的に独立して)設置される外部装置600で行なう点である。外部装置600は、映像処理装置500で記録された定常記録映像510を取得して、映像の物体認識処理を行なうとともに、付加されたメタ情報も適宜参照して、ヒヤリハット映像の抽出処理を事後処理として実施する。
外部装置600は、例えばPCやタブレットなどの情報端末、あるいは、インターネットなどの広域ネットワーク上に設置されたサーバーなどである。外部装置600が映像処理装置500から定常記録映像510を取得する手段は任意である。例えば映像処理装置500側ではCDやDVDなどの記録メディアや取り外し可能なメモリー・デバイス(USBメモリーなど)に定常記録映像510を記録しておき、外部装置600のこのような記録メディアやメモリー・デバイスを外部装置600に装填若しくは取り付ける方法が挙げられる。また、映像処理装置500と外部装置600間をHDMI(登録商標)のような映像伝送用ケーブルで接続して、定常記録映像510をメタ情報とともに転送するようにしてもよい。あるいは、映像処理装置500と外部装置600間で、通信ネットワーク2010を介して定常記録映像510をファイル転送するようにしてもよい。また、定常記録映像は、無線通信などにより外部のサーバーに保存され、そのサーバー上で同時に抽出処理されてもよい。
図6には、外部装置600において、ヒヤリハット映像の抽出処理を行なうための機能的構成を模式的に示している。外部装置600は、映像取得部601と、物体認識部602と、コントロール部607と、映像抽出部608と、メモリー609を備えている。
映像取得部601は、記録メディアやメモリー・デバイスを媒介にする、HDMI(登録商標)などの映像伝送媒体を利用する、通信ネットワーク2010を経由するなど、任意の手段により、映像処理装置500から定常記録映像510をメタ情報とともに取得する。映像取得部601は、定常記録映像510を映像抽出部608に出力するとともに、定常記録映像510に付加されたメタ情報をコントロール部607に割り振る。
物体認識部602は、映像取得部601で取得した定常記録映像510に対して物体認識処理を行ない、認識結果に基づいてヒヤリハット特徴を検出する。物体認識部602が検出するヒヤリハット特徴の定義や、各ヒヤリハット特徴を検出するために認識対象となる物体は、既に説明した通りである(表1を参照のこと)。
コントロール部607は、基本的には、物体認識部602から出力されるヒヤリハット特徴の検出信号に応じて、映像抽出部608による定常記録映像510からヒヤリハット映像を抽出する処理の制御を行なう。具体的には、コントロール部607は、物体認識部602からヒヤリハット特徴の検出信号が入力されたことに応答して、映像抽出部608に対して、ヒヤリハット映像の抽出を指示する抽出トリガーを出力する。
また、コントロール部507は、ヒヤリハット特徴の検出信号だけでなく、メタ情報に記載されている加速度変化に関する検出信号も適宜参照して、抽出トリガーの出力を制御するようにしてもよい。また、コントロール部607は、メタ情報に記載されている車室内の異常を示す音(クラクションや急ブレーキ音、衝突音など)の認識結果に基づいて抽出トリガーの出力を制御するようにしてもよい。
映像抽出部608は、コントロール部607から出力された抽出トリガーに対応する再生位置でヒヤリハットが発生していると判定して、抽出トリガーに対応する再生位置の前後の映像を抽出して、ヒヤリハット記録映像611として記録する。映像抽出部608は、ヒヤリハット映像を抽出して記録するために、抽出トリガーの前後の再生映像をメモリー609に一時的に保存することができる。
図7には、図6に示した外部装置600において定常記録映像510からヒヤリハット映像を抽出するための処理手順をフローチャートの形式で示している。
映像取得部601は、映像処理装置500から定常記録映像510を取得する(ステップS701)。
物体認識部602は、映像取得部301で取得した定常記録映像510に対して物体認識処理を行ない、ヒヤリハットの程度を示すヒヤリハット特徴量を抽出する(ステップS702)。天候など自車両の周辺環境に応じて、ヒヤリハット特徴量に重み付け(前述)を行なうようにしてもよい。
次いで、物体認識部602は、ヒヤリハット特徴量を所定の閾値と大小比較する(ステップS603)。ここで、ヒヤリハット特徴量が閾値を超えたときには、ヒヤリハット特徴を検出したと判定して(ステップS603のYes)、物体認識部602は、コントロール部607に対してヒヤリハット特徴の検出信号を出力する。そして、コントロール部607は、映像抽出部608に対して、抽出トリガーを出力して(ステップS704)、ヒヤリハット映像の抽出を指示する。
コントロール部607は、物体認識部602からのヒヤリハット特徴の検出信号だけでなく、メタ情報に記載されている加速度変化の情報も参照して抽出トリガーの出力を制御するようにしてもよい。また、コントロール部607は、メタ情報に記載されている車室内の異常を示す音(クラクションや急ブレーキ音、衝突音など)の認識結果に基づいて抽出トリガーの出力を制御するようにしてもよい。
そして、映像抽出部608は、コントロール部607から出力された抽出トリガーに対応する再生位置でヒヤリハットが発生していると判定して、抽出トリガーに対応する再生位置の前後の映像を抽出して、ヒヤリハット記録映像611として記録する(ステップS705)。映像抽出部608は、ヒヤリハット映像を抽出して記録するために、抽出トリガーの前後の再生映像をメモリー609に一時的に保存することができる。
図8には、図3に示した映像処理装置300の他の変形例としての映像表示装置800の機能的構成を示している。図示の映像処理装置800は、映像取得部801と、加速度センサー803と、検出部804と、音取得部805と、音認識部806と、コントロール部807と、映像記録部808と、メモリー809と、地図情報取得部821を備えている。映像処理装置800は、例えば図1に示した車両制御システム100の1つの機能として実現され、車両に搭載して用いられることを想定している。映像処理装置800が備える機能モジュールのうち、図8に示した映像処理装置800に含まれる機能モジュールと同じ名称のものは同じ機能を備えているものとする。
映像取得部801は、車両に搭載され、車外(車両周辺)と車室内を撮像する1台以上の車載カメラで撮像された映像を取得する(同上)。また、車載カメラにはステレオカメラが用いられており、映像取得部801は距離画像も併せて取得する。
物体認識部802は、映像取得部801で取得した車両周辺の映像や車室内の映像に対して物体認識処理を行ない、認識結果に基づいてヒヤリハット特徴を検出して、認識した物体の情報とヒヤリハット特徴の検出信号をコントロール部807に出力する。
また、物体認識部802は、映像取得部801で取得した距離画像を利用して、周辺車両やその他の物体障害物となるような物体(周辺車両や通行人、動物、道路工事、ガードレール、電柱、建造物、その他の障害物)の距離をえることができるので、衝突に結び付く物体接近に関するヒヤリハット特徴をより高精度に検出することができる。
加速度センサー803は、車両に加わる加速度を計測する。検出部804は、加速度センサー803で計測された加速度の変化を検出し、加速度変化が所定の閾値以上になると、検出信号をコントロール部807に出力する。
音取得部805は、車室内や車両周辺で発生する音を集音して、音認識部806に音声信号を出力する。音認識部806は、音声認識処理を行ない、車室内の叫び声やクラクション、急ブレーキ音、衝突音などの異常音を検出すると、検出信号をコントロール部807に出力する。
地図情報取得部821は、例えばGNSS衛星から受信したGNSS信号に基づいて測位部2640で生成される位置情報に基づいて、車両の現在位置における地図情報を取得する。
コントロール部807は、物体認識部802から出力される認識物体の情報並びにヒヤリハット特徴の検出信号に応じて、映像取得部801で取得される車載カメラの撮影映像のトリガー記録の制御を行なう。
例えば、コントロール部807は、物体認識部802からヒヤリハット特徴の検出信号が入力されたことに応答して、ヒヤリハット映像のトリガー記録を指示するトリガー信号(記録トリガー)を映像記録部808に出力する。
また、コントロール部807は、物体認識部802で認識された物体(道路標識や区画線(車道中央線、車線境界線、車道外側線など)、路側帯、横断歩道、信号機など)や、地図情報取得部821で取得した地図情報に基づいて、車両が現在走行している道路に適用されている規制(一方通行など)に関する情報を特定することができ、違反運転(自車両や周辺車両の違反運転、さらには通行人や自転車が犯した違反行為)をより高精度に検出して、記録トリガーの出力を制御することができる。
また、コントロール部807は、物体認識部802からのヒヤリハット特徴の検出信号だけでなく、検出部804からの加速度変化に関する検出信号も参照して記録トリガーの出力を制御するようにしてもよい。また、コントロール部807は、音認識部806による車室内の異常を示す音(クラクションや急ブレーキ音、衝突音など)の認識結果に基づいて記録トリガーの出力を制御するようにしてもよい。
映像記録部808は、映像取得部801で取得される、車載カメラで撮像した映像を、有限時間の中で上書き保存しながら、定常記録映像810として記録する。
また、映像記録部808は、コントロール部807から記録トリガーを受信すると、映像取得部801で取得中の映像はヒヤリハット映像であると判定して、記録トリガーが発生した前後の映像を、定常記録映像とは別ファイルとなるトリガー記録映像811として記録する。映像記録部808は、トリガー記録するために、記録トリガーの前後映像をメモリー809に一時的に保存することができる。
映像処理装置800においてヒヤリハット映像のトリガー記録制御は、図4に示したフローチャートと同様の処理手順で実現することができるので、ここでは説明を省略する。
なお、上記で説明した映像処理装置300、500、800を、車両制御システム2000中の統合制御ユニット2600のためのモジュール(例えば、1つのダイで構成される集積回路モジュール)として実装することもでき、あるいは統合制御ユニット2600と他の制御ユニットを含めた複数の制御ユニットを組み合わせて実装することもできる。
また、映像処理装置300、500、800が実現する機能(例えば、ヒヤリハット映像をトリガー記録する機能)をコンピューター・プログラムで実現することができ、このようなコンピューター・プログラムを車両制御システム2000に含まれるいずれかの制御ユニットで実行するようにしてもよい。また、このようなコンピューター・プログラムを、コンピューター読み取り可能な記録媒体に格納して提供することもできる。記録媒体として、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリーなどを挙げることができる。また、このようなコンピューター・プログラムをネットワーク経由で配信することもできる。
本明細書で開示する技術をドライブ・レコーダーに適用することによって、ヒヤリハット映像をトリガー記録する精度が向上し、ヒヤリハットの誤検出による無駄な映像の記録を抑制することができる。これにより、映像活用の側面でも、ドライブ・レコーダーからヒヤリハット映像を検索、管理する手間を大幅に削減することができる。
また、本明細書で開示する技術を利用したヒヤリハット映像のトリガー記録は、車両の運転中のリアルタイム処理としただけでなく、運転を終了した後の事後処理として実施することができる(例えば、図5〜図7を参照のこと)。後者の場合、ドライブ・レコーダー本体に専用のハードウェアは不要である。既に稼働しているドライブ・レコーダーの記録映像に対しても、本明細書で開示する技術を利用したヒヤリハット映像のトリガー記録を適用することができる。
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書で開示する技術は、自動車(ガソリン車及びディーゼル車を含む)、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナル・モビリティーなどさまざまな車両、さらには道路を走行する車両以外の形態の移動体に適用することができる。
本明細書で開示する技術を適用したドライブ・レコーダーは、車載カメラで撮像した映像の物体認識によりヒヤリハット特徴を抽出してトリガー記録を行なうが、勿論、加速度センサーや各種センサーによる検出情報を併用してトリガー記録を行なうように構成することもできる。
ドライブ・レコーダーの記録映像から物体認識によりヒヤリハット特徴を検出する処理は、走行中の自動車でリアルタイム処理として実施したり、あるいは自動車の運転が終了した事後処理として実施したりするようにしても構わない。
また、ドライブ・レコーダーの記録映像から物体認識によりヒヤリハット特徴検出する処理を、ドライブ・レコーダー本体で行なう他、ドライブ・レコーダー本体以外の機器(例えば、サーバー上)で実施するようにしてもよい。
要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)車両の外部又は内部を撮像した映像に含まれる物体の認識結果に基づいて、事故に至る可能性があるシーンの特徴を検出する物体認識部と、
前記特徴が検出されたことに応じて前記映像の処理を制御する制御部と、
を具備する映像処理装置。
(1−1)前記制御部は、前記特徴に応じて前記映像の記録を制御する、
上記(1)に記載の映像処理装置。
(1−2)(ヒヤリハット前後の映像を記録する)トリガー記録部をさらに備え、
前記制御部は、前記特徴に応じて前記映像の前記トリガー記録部への記録を制御する、
上記(1)に記載の映像処理装置。
(1−3)前記映像を所定の有限時間内で定常的に上書き記録する定常記録部をさらに備え、
前記制御部は、前記特徴に基づいて前記定常記録部の上書き禁止を制御する、
上記(1)に記載の映像処理装置。
(1−4)前記車両に搭載され、前記車両の外部又は内部を撮像する1以上の撮像部をさらに備える、
上記(1)に記載の映像処理装置。
(2)前記物体認識部は、前記特徴として、前記映像から認識した物体の接近に関する特徴を検出する、
上記(1)に記載の映像処理装置。
(3)前記物体認識部は、前記特徴として、物体認識した周辺車両同士の接近に関する特徴を検出する、
上記(1)に記載の映像処理装置。
(4)前記物体認識部は、前記特徴として、物体認識した周辺車両又はその他の物体と前記車両の接近に関する特徴を検出する、
上記(1)に記載の映像処理装置。
(5)前記物体認識部は、さらに距離画像を参照して、前記接近に関する特徴を検出する、
上記(2)乃至(4)のいずれかに記載の映像処理装置。
(6)前記車両の周囲環境を検出する車外情報検出部をさらに備え、
前記物体認識部は、前記周囲環境をさらに考慮して、前記接近に関する特徴を検出する、
上記(2)乃至(5)のいずれかに記載の映像処理装置。
(7)前記物体認識部は、前記特徴として、前記映像から認識した道路の画面内での軌道に基づいて前記車両のスピン又はスリップに関する特徴を検出する、
上記(1)に記載の映像処理装置。
(8)前記物体認識部は、前記映像から道路に引かれた区画線、路肩、路側帯に基づいて道路を認識する、
上記(7)に記載の映像処理装置。
(9)前記車両のステアリングの方向を検出する車両状態検出部をさらに備え、
前記物体認識部は、前記特徴として、前記映像から認識した道路と前記ステアリングの方向との角度に基づいて前記車両のスピン又はスリップに関する特徴を検出する、
上記(1)に記載の映像処理装置。
(10)前記車両の周囲環境を検出する車外情報検出部をさらに備え、
前記物体認識部は、前記周囲環境を考慮して、前記車両のスピン又はスリップに関する特徴を検出する、
上記(7)乃至(9)のいずれかに記載の映像処理装置。
(11)前記物体認識部は、前記特徴として、前記車両又はその周辺車両の違反運転、通行人の違反行為に関する特徴を検出する、
上記(1)に記載の映像処理装置。
(12)前記物体認識部は、前記映像から車線又は路側帯を認識して、前記車両の車線を逸脱した走行に関する特徴を検出する、
上記(11)に記載の映像処理装置。
(13)前記物体認識部は、前記映像から車線又は路側帯と周辺車両を認識して、前記周辺車両の車線を逸脱した走行に関する特徴を検出する、
上記(11)に記載の映像処理装置。
(14)前記物体認識部は、前記映像の物体認識結果に基づいて走行中の道路に規定されている規制に関する情報を取得し、前記車両又はその周辺車両の走行状況が前記規制と一致しないときに、違反運転に関する特徴を検出する、
上記(11)に記載の映像処理装置。
(15)さらに地図情報に基づいて、走行中の道路に規定されている規制に関する情報を取得する、
上記(14)に記載の映像処理装置。
(16)前記物体認識部は、前記映像から、道路脇に設置された道路標識、路面に描かれた道路標識、道路に引かれた停止線位置、又は信号機の少なくともいずれか1つを認識して、前記車両又はその周辺車両の道路標識違反、停止線位置無視、又は信号無視の少なくともいずれか1つを検出したときに、違反運転に関する特徴を検出する、
上記(11)に記載の映像処理装置。
(17)前記物体認識部は、道路上の停止線を物体認識し、前記車両又はその周辺車両の車速又は加速度と停止線位置までの関係から、停止が不可能であると判定した場合に、停止位置無視の違反運転に関する特徴を検出する、
上記(11)に記載の映像処理装置。
(18)前記物体認識部は、信号機の赤信号又は黄信号を物体認識し、前記車両又はその周辺車両の車速又は加速度と物体認識した信号機の位置までの関係から、停止が不可能であると判定した場合に、信号無視の違反運転に関する特徴を検出する、
上記(11)に記載の映像処理装置。
(19)物体認識部は、周辺車両の走行状況とランプの点灯をともに物体認識して、走行状況とランプの点灯が一致しないときに、周辺車両の合図不履行違反に関する特徴を検出する、
上記(11)に記載の映像処理装置。
(20)前記物体認識部は、前記車両の車室内の異常に関する特徴を検出する、
上記(1)に記載の映像処理装置。
(21)前記車両の車外又は車室内の音を取得する音取得部と、
前記音取得部が取得した音の認識結果に基づいて前記特徴を検出する音取得部と、
をさらに備える上記(1)に記載の映像処理装置。
(22)前記音取得部は、事前登録した音声以外の音声に変調を掛ける、
上記(21)に記載の映像処理装置。
(23)前記物体認識部は、前記車両の内部を撮影した映像に含まれるドライバーの認識結果に基づいて前記特徴を検出する、
上記(1)に記載の映像処理装置。
(24)前記ドライバーの状態を検出する車内状態検出部をさらに備え、
前記物体認識部は、ドライバーの認識結果とともにドライバーの状態を参照して前記特徴を検出する、
上記(1)に記載の映像処理装置。
(25)前記物体認識部は、前記車両の先行車両のストップランプ、ハザードランプの点灯を物体認識した結果に基づいて前記特徴を検出する、
上記(1)に記載の映像処理装置。
(26)車両の外部又は内部を撮像した映像に含まれる物体の認識結果に基づいて、事故に至る可能性があるシーンの特徴を検出する物体認識ステップと、
前記特徴が検出されたことに応じて前記映像の処理を制御する制御ステップと、
を有する映像処理方法。
300…映像処理装置、301…映像取得部、302…物体認識部
303…加速度センサー、304…検出部、305…音取得部
306…音認識部、307…コントロール部
308…映像記録部、309…メモリー
310…定常記録映像、311…トリガー記録映像
500…映像処理装置、501…映像取得部
503…加速度センサー、504…検出部、505…音取得部
506…音認識部、507…コントロール部
508…映像記録部、509…メモリー、510…定常記録映像
600…映像処理装置、601…映像取得部、602…物体認識部
607…コントロール部、608…映像抽出部、609…メモリー
800…映像処理装置、801…映像取得部、802…物体認識部
803…加速度センサー、804…検出部、805…音取得部
806…音認識部、807…コントロール部
808…映像記録部、809…メモリー
810…定常記録映像、811…トリガー記録映像、821…地図情報取得部
2000…車両制御システム、2010…通信ネットワーク
2100…駆動系制御ユニット、2110…車両状態検出部
2200…ボディ系制御ユニット、2300…バッテリー制御ユニット
2310…バッテリー装置、2400…車外情報検出ユニット
2410…撮像部、2420…車外情報検出部
2500…車内情報検出ユニット、2510…車内状態検出部
2600…統合制御ユニット、2610…マイクロ・コンピューター
2620…汎用通信インターフェース
2630…専用通信インターフェース、2640…測位部
2650…ビーコン受信部、2660…車内機器インターフェース
2670…音声画像出力部
2680…車載ネットワーク・インターフェース、2690…記憶部
2710…オーディオ・スピーカー、2720…表示部
2730…インストルメント・パネル、2760…車内機器
2800…入力部
2900…車両
2910、2912、2914、2916、2918…撮像部
2920、2922、2924…車外情報検出部
2926、2928、2930…車外情報検出部

Claims (20)

  1. 車両の外部又は内部を撮像した映像に含まれる物体の認識結果に基づいて、事故に至る可能性があるシーンの特徴を検出する物体認識部と、
    前記特徴が検出されたことに応じて前記映像の処理を制御する制御部と、
    を具備する映像処理装置。
  2. 前記物体認識部は、前記特徴として、前記映像から認識した物体の接近に関する特徴を検出する、
    請求項1に記載の映像処理装置。
  3. 前記物体認識部は、前記特徴として、物体認識した周辺車両同士の接近に関する特徴を検出する、
    請求項1に記載の映像処理装置。
  4. 前記物体認識部は、前記特徴として、物体認識した周辺車両又はその他の物体と前記車両の接近に関する特徴を検出する、
    請求項1に記載の映像処理装置。
  5. 前記物体認識部は、さらに距離画像を参照して、前記接近に関する特徴を検出する、
    請求項2に記載の映像処理装置。
  6. 前記車両の周囲環境を検出する車外情報検出部をさらに備え、
    前記物体認識部は、前記周囲環境をさらに考慮して、前記接近に関する特徴を検出する、
    請求項2に記載の映像処理装置。
  7. 前記物体認識部は、前記特徴として、前記映像から認識した道路の画面内での軌道に基づいて前記車両のスピン又はスリップに関する特徴を検出する、
    請求項1に記載の映像処理装置。
  8. 前記物体認識部は、前記映像から道路に引かれた区画線、路肩、路側帯に基づいて道路を認識する、
    請求項7に記載の映像処理装置。
  9. 前記車両のステアリングの方向を検出する車両状態検出部をさらに備え、
    前記物体認識部は、前記特徴として、前記映像から認識した道路と前記ステアリングの方向との角度に基づいて前記車両のスピン又はスリップに関する特徴を検出する、
    請求項1に記載の映像処理装置。
  10. 前記車両の周囲環境を検出する車外情報検出部をさらに備え、
    前記物体認識部は、前記周囲環境を考慮して、前記車両のスピン又はスリップに関する特徴を検出する、
    請求項7乃至9のいずれかに記載の映像処理装置。
  11. 前記物体認識部は、前記特徴として、前記車両又はその周辺車両の違反運転、通行人の違反行為に関する特徴を検出する、
    請求項1に記載の映像処理装置。
  12. 前記物体認識部は、前記映像から車線又は路側帯を認識して、前記車両の車線を逸脱した走行に関する特徴を検出する、
    請求項11に記載の映像処理装置。
  13. 前記物体認識部は、前記映像から車線又は路側帯と周辺車両を認識して、前記周辺車両の車線を逸脱した走行に関する特徴を検出する、
    請求項11に記載の映像処理装置。
  14. 前記物体認識部は、前記映像の物体認識結果に基づいて走行中の道路に規定されている規制に関する情報を取得し、前記車両又はその周辺車両の走行状況が前記規制と一致しないときに、違反運転に関する特徴を検出する、
    請求項11に記載の映像処理装置。
  15. さらに地図情報に基づいて、走行中の道路に規定されている規制に関する情報を取得する、
    請求項14に記載の映像処理装置。
  16. 前記物体認識部は、前記映像から、道路脇に設置された道路標識、路面に描かれた道路標識、道路に引かれた停止線位置、又は信号機の少なくともいずれか1つを認識して、前記車両又はその周辺車両の道路標識違反、停止線位置無視、又は信号無視の少なくともいずれか1つを検出したときに、違反運転に関する特徴を検出する、
    請求項11に記載の映像処理装置。
  17. 前記物体認識部は、道路上の停止線を物体認識し、前記車両又はその周辺車両の車速又は加速度と停止線位置までの関係から、停止が不可能であると判定した場合に、停止位置無視の違反運転に関する特徴を検出する、
    請求項11に記載の映像処理装置。
  18. 前記物体認識部は、信号機の赤信号又は黄信号を物体認識し、前記車両又はその周辺車両の車速又は加速度と物体認識した信号機の位置までの関係から、停止が不可能であると判定した場合に、信号無視の違反運転に関する特徴を検出する、
    請求項11に記載の映像処理装置。
  19. 物体認識部は、周辺車両の走行状況とランプの点灯をともに物体認識して、走行状況とランプの点灯が一致しないときに、周辺車両の合図不履行違反に関する特徴を検出する、
    請求項11に記載の映像処理装置。
  20. 車両の外部又は内部を撮像した映像に含まれる物体の認識結果に基づいて、事故に至る可能性があるシーンの特徴を検出する物体認識ステップと、
    前記特徴が検出されたことに応じて前記映像の処理を制御する制御ステップと、
    を有する映像処理方法。
JP2016017697A 2016-02-02 2016-02-02 映像処理装置及び映像処理方法 Pending JP2017138694A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016017697A JP2017138694A (ja) 2016-02-02 2016-02-02 映像処理装置及び映像処理方法
PCT/JP2016/084032 WO2017134897A1 (ja) 2016-02-02 2016-11-17 映像処理装置及び映像処理方法
US15/779,165 US20180357484A1 (en) 2016-02-02 2016-11-17 Video processing device and video processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016017697A JP2017138694A (ja) 2016-02-02 2016-02-02 映像処理装置及び映像処理方法

Publications (1)

Publication Number Publication Date
JP2017138694A true JP2017138694A (ja) 2017-08-10

Family

ID=59499659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016017697A Pending JP2017138694A (ja) 2016-02-02 2016-02-02 映像処理装置及び映像処理方法

Country Status (3)

Country Link
US (1) US20180357484A1 (ja)
JP (1) JP2017138694A (ja)
WO (1) WO2017134897A1 (ja)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019056951A (ja) * 2017-09-19 2019-04-11 本田技研工業株式会社 周辺監視装置、周辺監視方法、およびプログラム
WO2019225053A1 (ja) * 2018-05-25 2019-11-28 株式会社Jvcケンウッド 記録制御装置、記録制御方法及びプログラム
JP2020003840A (ja) * 2018-06-25 2020-01-09 株式会社デンソー ドライブレコーダ、走行中動画記憶方法
WO2020059115A1 (ja) * 2018-09-21 2020-03-26 三菱電機株式会社 運転判定装置および運転判定方法
WO2020075912A1 (ko) * 2018-10-10 2020-04-16 아주대학교산학협력단 차량의 영상데이터를 이용한 영상 분석 장치 및 그 방법
KR20200040320A (ko) * 2018-10-01 2020-04-20 현대자동차주식회사 차량, 차량의 제어 방법 및 영상 탐색 장치
JP2020077237A (ja) * 2018-11-08 2020-05-21 本田技研工業株式会社 運行データレコーディングシステム、運行データレコーダ、端末装置、および運行データレコーディング方法
JP2020101960A (ja) * 2018-12-21 2020-07-02 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN111489584A (zh) * 2019-01-25 2020-08-04 夏普株式会社 系统、系统的控制方法以及信息提供服务器
JP2020126356A (ja) * 2019-02-01 2020-08-20 トヨタ自動車株式会社 情報処理装置、情報処理方法およびプログラム
JP2020141221A (ja) * 2019-02-27 2020-09-03 エヌ・ティ・ティ・コミュニケーションズ株式会社 判定装置、判定方法、及びプログラム
JP2020154369A (ja) * 2019-03-18 2020-09-24 株式会社Jvcケンウッド 障害物情報管理装置、障害物情報管理方法、及び障害物情報管理プログラム
JP2020164066A (ja) * 2019-03-29 2020-10-08 本田技研工業株式会社 車両制御システム
US10817751B2 (en) 2018-03-30 2020-10-27 Panasonic Intellectual Property Corporation Of America Learning data creation method, learning method, risk prediction method, learning data creation device, learning device, risk prediction device, and recording medium
KR102187441B1 (ko) * 2019-07-22 2020-12-07 고려대학교 산학협력단 비정상 운전 판별이 가능한 드론
WO2020250574A1 (ja) * 2019-06-11 2020-12-17 株式会社Jvcケンウッド 運転支援装置、運転支援方法及びプログラム
JP2021005350A (ja) * 2019-06-27 2021-01-14 パナソニックIpマネジメント株式会社 映像記録システム、映像記録方法
JP2021033896A (ja) * 2019-08-29 2021-03-01 ダイハツ工業株式会社 車両仕様算定システム
JP2021051628A (ja) * 2019-09-26 2021-04-01 株式会社Jvcケンウッド 記録制御装置、記録制御方法、および記録制御プログラム
JP2021057707A (ja) * 2019-09-27 2021-04-08 トヨタ自動車株式会社 車室内検出装置及び車室内検出システム
JP2021096672A (ja) * 2019-12-18 2021-06-24 日立Astemo株式会社 車両制御装置、車両制御方法及び車両制御システム
KR20210090721A (ko) * 2018-12-11 2021-07-20 웨이모 엘엘씨 자율 차량들을 위한 중복성 하드웨어 시스템
US11100338B2 (en) 2018-05-23 2021-08-24 Toyota Jidosha Kabushiki Kaisha Data recording device
JPWO2021181621A1 (ja) * 2020-03-12 2021-09-16
JPWO2021229705A1 (ja) * 2020-05-13 2021-11-18
JP2021534490A (ja) * 2018-08-20 2021-12-09 ウェイモ エルエルシー 自律型車両のための行列の検出および行列に対する応答
JP7402753B2 (ja) 2020-06-12 2023-12-21 日立Astemo株式会社 安全支援システム、および車載カメラ画像分析方法

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11181923B2 (en) * 2015-06-23 2021-11-23 Nec Corporation Detection system, detection method, and program
JP6540482B2 (ja) * 2015-12-04 2019-07-10 株式会社デンソー 情報処理システム、情報処理装置及び出力制御方法
WO2018105136A1 (ja) * 2016-12-06 2018-06-14 本田技研工業株式会社 車両周辺情報取得装置および車両
JP2019530061A (ja) * 2016-08-10 2019-10-17 ジーボ インコーポレーテッドXevo Inc. 推測注意モデルを用いて収集され格納されたメタデータを通して情報を提供する方法及び装置
US10936884B2 (en) * 2017-01-23 2021-03-02 Magna Electronics Inc. Vehicle vision system with object detection failsafe
US10307780B2 (en) * 2017-06-08 2019-06-04 Meyer Products, Llc Video monitoring system for a spreader hopper
WO2019026332A1 (ja) * 2017-07-31 2019-02-07 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像生成方法およびプログラム
KR102037324B1 (ko) * 2017-11-30 2019-10-28 엘지전자 주식회사 자율주행 차량 및 그 제어 방법
WO2019158457A1 (de) * 2018-02-13 2019-08-22 Inventus Engineering Gmbh Türeinrichrung mit verfahrbarer sensorkomponente zur umfelderkennung sowie verfahren zur umfelderkennung an einer türeinrichtung
JP6627995B2 (ja) * 2018-05-10 2020-01-08 株式会社Jvcケンウッド 記録装置、記録方法、およびプログラム
EP3827419A4 (en) * 2018-07-26 2022-04-27 Takosan Otomobil Gostergeleri Sanayi ve Ticaret A.S. MONITORING, CONTROL AND REPORTING OF DRIVER ACTIONS BY AUTOMATIC TRAFFIC RULES FOLLOW-UP
CN108711202B (zh) * 2018-08-06 2022-01-28 上海市大数据股份有限公司 一种基于大数据的交通事故救援系统
JP6708237B2 (ja) * 2018-09-13 2020-06-10 株式会社Jvcケンウッド 映像記録制御装置、映像記録システム、映像記録方法、および映像記録制御プログラム
CN109389700A (zh) * 2018-10-19 2019-02-26 福建工程学院 一种基于区块链技术的车辆可见性违法行为识别方法
US11586856B2 (en) * 2018-10-30 2023-02-21 Nec Corporation Object recognition device, object recognition method, and object recognition program
JP6683235B1 (ja) * 2018-11-14 2020-04-15 株式会社Jvcケンウッド 車両用記録制御装置、車両用記録装置、車両用記録制御方法およびプログラム
JP6705495B1 (ja) * 2018-12-26 2020-06-03 株式会社Jvcケンウッド 車両用記録制御装置、車両用記録装置、車両用記録制御方法およびプログラム
WO2019147111A2 (ko) * 2019-02-21 2019-08-01 엘지전자 주식회사 주차 위치를 기록하기 위한 방법 및 디바이스
US11494921B2 (en) * 2019-04-26 2022-11-08 Samsara Networks Inc. Machine-learned model based event detection
US11080568B2 (en) 2019-04-26 2021-08-03 Samsara Inc. Object-model based event detection system
US10999374B2 (en) 2019-04-26 2021-05-04 Samsara Inc. Event detection system
US11511737B2 (en) 2019-05-23 2022-11-29 Systomix, Inc. Apparatus and method for processing vehicle signals to compute a behavioral hazard measure
JP7306076B2 (ja) * 2019-06-07 2023-07-11 マツダ株式会社 移動体外部環境認識装置
JP7323356B2 (ja) * 2019-06-28 2023-08-08 フォルシアクラリオン・エレクトロニクス株式会社 駐車支援装置及び駐車支援方法
JP7369776B2 (ja) * 2019-08-08 2023-10-26 ロジスティード株式会社 運行インシデント画像表示システム、方法及びプログラム
CN112700658B (zh) * 2019-10-22 2023-02-03 奥迪股份公司 用于车辆的图像分享的系统及相应的方法和存储介质
JP2021117840A (ja) * 2020-01-28 2021-08-10 トヨタ自動車株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2021152985A1 (ja) * 2020-01-31 2021-08-05 株式会社Jvcケンウッド 記録制御装置、記録制御方法、及びプログラム
WO2021168387A1 (en) * 2020-02-21 2021-08-26 Calamp Corp. Technologies for driver behavior assessment
US11669789B1 (en) * 2020-03-31 2023-06-06 GM Cruise Holdings LLC. Vehicle mass determination
CN114167849B (zh) * 2020-08-21 2023-12-08 富联精密电子(天津)有限公司 自走三角警示架及其行进控制方法
US11412014B1 (en) * 2020-12-21 2022-08-09 Meta Platforms, Inc. Systems and methods for integrated audioconferencing
EP4276788A4 (en) * 2021-02-18 2024-01-17 Nec Corp DEVICE FOR DETECTING IMPROVEMENT ELEMENTS, METHOD FOR DETECTING IMPROVEMENT ELEMENTS AND PROGRAM
JP2022126341A (ja) * 2021-02-18 2022-08-30 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
WO2022195676A1 (ja) * 2021-03-15 2022-09-22 日本電気株式会社 運転情報出力装置、運転情報出力システム、運転情報出力方法、及び、記録媒体
CN113269042B (zh) * 2021-04-25 2024-03-29 安徽银徽科技有限公司 基于行驶车辆违章识别的智能交通管理方法及系统

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10116400A (ja) * 1996-10-11 1998-05-06 Honda Access Corp 車両の走行履歴記録システム
JP2001350521A (ja) * 2000-06-07 2001-12-21 Nissan Motor Co Ltd 車両の自動操舵装置
JP2002042288A (ja) * 2000-07-26 2002-02-08 Yazaki Corp 運行状態記録装置及びそれを利用した運行管理システム
JP2005178622A (ja) * 2003-12-19 2005-07-07 Denso Corp 車両用安全制御装置
JP2006085285A (ja) * 2004-09-14 2006-03-30 Matsushita Electric Ind Co Ltd 危険車両予測装置
JP2007072641A (ja) * 2005-09-06 2007-03-22 Equos Research Co Ltd 危険車両検出装置
JP5103629B2 (ja) * 2006-02-07 2012-12-19 国立大学法人東京農工大学 車両動作測定装置および、車両非正常動作防止装置
US20080180537A1 (en) * 2006-11-14 2008-07-31 Uri Weinberg Camera system and methods
CN102067191A (zh) * 2008-06-30 2011-05-18 罗姆股份有限公司 车辆的行驶信息记录装置
JP2011145892A (ja) * 2010-01-14 2011-07-28 Fuji Heavy Ind Ltd 運転支援装置
JP5573220B2 (ja) * 2010-02-18 2014-08-20 株式会社リコー ドライブレコーダー装置、記録方法、プログラム及び記録媒体
US10703299B2 (en) * 2010-04-19 2020-07-07 SMR Patents S.à.r.l. Rear view mirror simulation
JP2012221134A (ja) * 2011-04-07 2012-11-12 Hitachi Automotive Systems Ltd 運転支援装置
US20140277833A1 (en) * 2013-03-15 2014-09-18 Mighty Carma, Inc. Event triggered trip data recorder
US9254846B2 (en) * 2013-05-03 2016-02-09 Google Inc. Predictive reasoning for controlling speed of a vehicle
JP5416307B1 (ja) * 2013-07-08 2014-02-12 アサヒリサーチ株式会社 車両の運行管理装置及びコンピュータプログラム
US9513702B2 (en) * 2013-07-15 2016-12-06 Lg Electronics Inc. Mobile terminal for vehicular display system with gaze detection
JP6234146B2 (ja) * 2013-10-04 2017-11-22 キヤノン株式会社 記録制御装置、記録制御方法、及び、プログラム
KR101622622B1 (ko) * 2014-10-13 2016-05-31 엘지전자 주식회사 차량 하부 이미지 제공 장치 및 이를 구비한 차량
KR20160107054A (ko) * 2015-03-03 2016-09-13 엘지전자 주식회사 차량 제어 장치, 차량 운전 보조 장치, 이동 단말기 및 그 제어 방법
US10345809B2 (en) * 2015-05-13 2019-07-09 Uber Technologies, Inc. Providing remote assistance to an autonomous vehicle
US20160357187A1 (en) * 2015-06-05 2016-12-08 Arafat M.A. ANSARI Smart vehicle
KR101977090B1 (ko) * 2015-07-22 2019-05-10 엘지전자 주식회사 차량 제어 장치 및 이를 구비한 차량의 제어방법
KR101778558B1 (ko) * 2015-08-28 2017-09-26 현대자동차주식회사 물체 인식 장치, 그를 가지는 차량 및 그 제어 방법
KR101843538B1 (ko) * 2015-12-16 2018-03-30 엘지전자 주식회사 차량 운전 보조장치 및 이의 차량 운전 보조방법
CN107945506A (zh) * 2016-10-12 2018-04-20 胜方光电科技股份有限公司 交通影音接收与分析系统
KR20180060784A (ko) * 2016-11-29 2018-06-07 삼성전자주식회사 비정상 객체 판단 방법 및 장치
WO2018212538A1 (en) * 2017-05-16 2018-11-22 Samsung Electronics Co., Ltd. Electronic device and method of detecting driving event of vehicle

Cited By (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019056951A (ja) * 2017-09-19 2019-04-11 本田技研工業株式会社 周辺監視装置、周辺監視方法、およびプログラム
US10817751B2 (en) 2018-03-30 2020-10-27 Panasonic Intellectual Property Corporation Of America Learning data creation method, learning method, risk prediction method, learning data creation device, learning device, risk prediction device, and recording medium
US11100338B2 (en) 2018-05-23 2021-08-24 Toyota Jidosha Kabushiki Kaisha Data recording device
WO2019225053A1 (ja) * 2018-05-25 2019-11-28 株式会社Jvcケンウッド 記録制御装置、記録制御方法及びプログラム
JP2020003840A (ja) * 2018-06-25 2020-01-09 株式会社デンソー ドライブレコーダ、走行中動画記憶方法
US11537128B2 (en) 2018-08-20 2022-12-27 Waymo Llc Detecting and responding to processions for autonomous vehicles
JP2021534490A (ja) * 2018-08-20 2021-12-09 ウェイモ エルエルシー 自律型車両のための行列の検出および行列に対する応答
JP7176098B2 (ja) 2018-08-20 2022-11-21 ウェイモ エルエルシー 自律型車両のための行列の検出および行列に対する応答
US11860631B2 (en) 2018-08-20 2024-01-02 Waymo Llc Detecting and responding to processions for autonomous vehicles
JPWO2020059115A1 (ja) * 2018-09-21 2021-03-11 三菱電機株式会社 運転判定装置および運転判定方法
WO2020059115A1 (ja) * 2018-09-21 2020-03-26 三菱電機株式会社 運転判定装置および運転判定方法
KR20200040320A (ko) * 2018-10-01 2020-04-20 현대자동차주식회사 차량, 차량의 제어 방법 및 영상 탐색 장치
KR102486161B1 (ko) * 2018-10-01 2023-01-10 현대자동차주식회사 차량, 차량의 제어 방법 및 영상 탐색 장치
WO2020075912A1 (ko) * 2018-10-10 2020-04-16 아주대학교산학협력단 차량의 영상데이터를 이용한 영상 분석 장치 및 그 방법
JP2020077237A (ja) * 2018-11-08 2020-05-21 本田技研工業株式会社 運行データレコーディングシステム、運行データレコーダ、端末装置、および運行データレコーディング方法
JP7029377B2 (ja) 2018-11-08 2022-03-03 本田技研工業株式会社 運行データレコーディングシステム、運行データレコーダ、端末装置、および運行データレコーディング方法
KR102511055B1 (ko) 2018-12-11 2023-03-17 웨이모 엘엘씨 자율 차량들을 위한 중복성 하드웨어 시스템
US11912292B2 (en) 2018-12-11 2024-02-27 Waymo Llc Redundant hardware system for autonomous vehicles
KR20210090721A (ko) * 2018-12-11 2021-07-20 웨이모 엘엘씨 자율 차량들을 위한 중복성 하드웨어 시스템
JP2020101960A (ja) * 2018-12-21 2020-07-02 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2020119560A (ja) * 2019-01-25 2020-08-06 シャープ株式会社 システム、システムの制御方法および情報提供サーバ
CN111489584A (zh) * 2019-01-25 2020-08-04 夏普株式会社 系统、系统的控制方法以及信息提供服务器
US11037442B2 (en) 2019-01-25 2021-06-15 Sharp Kabushiki Kaisha System, system control method, and information providing server
JP7192541B2 (ja) 2019-02-01 2022-12-20 トヨタ自動車株式会社 情報処理装置、情報処理方法およびプログラム
JP2020126356A (ja) * 2019-02-01 2020-08-20 トヨタ自動車株式会社 情報処理装置、情報処理方法およびプログラム
JP2020141221A (ja) * 2019-02-27 2020-09-03 エヌ・ティ・ティ・コミュニケーションズ株式会社 判定装置、判定方法、及びプログラム
JP2020154369A (ja) * 2019-03-18 2020-09-24 株式会社Jvcケンウッド 障害物情報管理装置、障害物情報管理方法、及び障害物情報管理プログラム
JP2020164066A (ja) * 2019-03-29 2020-10-08 本田技研工業株式会社 車両制御システム
CN111746515A (zh) * 2019-03-29 2020-10-09 本田技研工业株式会社 车辆控制系统
US11760380B2 (en) 2019-03-29 2023-09-19 Honda Motor Co., Ltd. Vehicle control system
CN111746515B (zh) * 2019-03-29 2023-08-29 本田技研工业株式会社 车辆控制系统
JP7165093B2 (ja) 2019-03-29 2022-11-02 本田技研工業株式会社 車両制御システム
WO2020250574A1 (ja) * 2019-06-11 2020-12-17 株式会社Jvcケンウッド 運転支援装置、運転支援方法及びプログラム
JP7300626B2 (ja) 2019-06-27 2023-06-30 パナソニックIpマネジメント株式会社 映像記録システム、映像記録方法
JP2021005350A (ja) * 2019-06-27 2021-01-14 パナソニックIpマネジメント株式会社 映像記録システム、映像記録方法
KR102187441B1 (ko) * 2019-07-22 2020-12-07 고려대학교 산학협력단 비정상 운전 판별이 가능한 드론
JP2021033896A (ja) * 2019-08-29 2021-03-01 ダイハツ工業株式会社 車両仕様算定システム
JP7327042B2 (ja) 2019-09-26 2023-08-16 株式会社Jvcケンウッド 記録制御装置、記録制御方法、および記録制御プログラム
JP2021051628A (ja) * 2019-09-26 2021-04-01 株式会社Jvcケンウッド 記録制御装置、記録制御方法、および記録制御プログラム
JP2021057707A (ja) * 2019-09-27 2021-04-08 トヨタ自動車株式会社 車室内検出装置及び車室内検出システム
JP7319906B2 (ja) 2019-12-18 2023-08-02 日立Astemo株式会社 車両制御装置、車両制御方法及び車両制御システム
JP2021096672A (ja) * 2019-12-18 2021-06-24 日立Astemo株式会社 車両制御装置、車両制御方法及び車両制御システム
JPWO2021181621A1 (ja) * 2020-03-12 2021-09-16
JP7367848B2 (ja) 2020-03-12 2023-10-24 日本電気株式会社 走行映像提供システム、装置、方法、及びプログラム
WO2021181621A1 (ja) * 2020-03-12 2021-09-16 日本電気株式会社 走行映像提供システム、装置、方法、及びコンピュータ可読媒体
JP7321371B2 (ja) 2020-05-13 2023-08-04 三菱電機株式会社 走行支援装置および走行支援方法
WO2021229705A1 (ja) * 2020-05-13 2021-11-18 三菱電機株式会社 走行支援装置および走行支援方法
JPWO2021229705A1 (ja) * 2020-05-13 2021-11-18
JP7402753B2 (ja) 2020-06-12 2023-12-21 日立Astemo株式会社 安全支援システム、および車載カメラ画像分析方法

Also Published As

Publication number Publication date
US20180357484A1 (en) 2018-12-13
WO2017134897A1 (ja) 2017-08-10

Similar Documents

Publication Publication Date Title
WO2017134897A1 (ja) 映像処理装置及び映像処理方法
US20210124956A1 (en) Information processing apparatus, information processing method, and program
US9786171B2 (en) Systems and methods for detecting and distributing hazard data by a vehicle
US10166934B2 (en) Capturing driving risk based on vehicle state and automatic detection of a state of a location
JP6402684B2 (ja) 表示装置
US20180329414A1 (en) Drive assistance device and drive assistance method, and moving body
US20200294385A1 (en) Vehicle operation in response to an emergency event
US11257374B2 (en) Information processing apparatus, information processing method, and moving object
WO2019077999A1 (ja) 撮像装置、画像処理装置、及び、画像処理方法
WO2021065626A1 (ja) 交通制御システム、交通制御方法及び制御装置
US20190394652A1 (en) Apparatus for testing hacking of vehicle electronic device
JP7074125B2 (ja) 情報処理装置と情報処理方法
CN112368598A (zh) 信息处理设备、信息处理方法、计算机程序和移动设备
US11585898B2 (en) Signal processing device, signal processing method, and program
US20200231178A1 (en) Vehicle control system, vehicle control method, and program
JP6981095B2 (ja) サーバ装置、記録方法、プログラム、および記録システム
WO2019039280A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、車両
US20200035100A1 (en) Driving support apparatus and driving support method
CN105620490A (zh) 基于adas的驾驶辅助系统
CN115257628B (zh) 车辆控制方法、装置、存储介质、车辆及芯片
CN114802435B (zh) 车辆控制方法、装置、车辆、存储介质及芯片
WO2022004352A1 (ja) 制御装置、制御方法、記憶媒体、及び制御システム
WO2022044830A1 (ja) 情報処理装置、および情報処理方法
WO2024024471A1 (ja) 情報処理装置、情報処理方法、及び、情報処理システム
WO2020195969A1 (ja) 情報処理装置、情報処理方法及びプログラム