JP2021180016A - クラウドコントロールプラットフォームに用いるイベント検出方法、装置、設備、記憶媒体、及びプログラム - Google Patents

クラウドコントロールプラットフォームに用いるイベント検出方法、装置、設備、記憶媒体、及びプログラム Download PDF

Info

Publication number
JP2021180016A
JP2021180016A JP2021115399A JP2021115399A JP2021180016A JP 2021180016 A JP2021180016 A JP 2021180016A JP 2021115399 A JP2021115399 A JP 2021115399A JP 2021115399 A JP2021115399 A JP 2021115399A JP 2021180016 A JP2021180016 A JP 2021180016A
Authority
JP
Japan
Prior art keywords
target
target vehicle
acceleration
event
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021115399A
Other languages
English (en)
Inventor
ボー リウ
Bo Liu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Original Assignee
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apollo Intelligent Connectivity Beijing Technology Co Ltd filed Critical Apollo Intelligent Connectivity Beijing Technology Co Ltd
Publication of JP2021180016A publication Critical patent/JP2021180016A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】道路上の各車両における突発イベント検出を実現し、道路交通シーンにおける各車両の突発的な状況を迅速に、正確に把握する。【解決手段】目標領域の監視ビデオにより、前記目標領域に位置する目標車両を検出することと、前記目標車両に対する収集時間、及び前記収集時間に対応する画像フレームにおける前記目標車両の位置情報を決定することと、少なくとも前記収集時間及び前記位置情報に基づいて、前記目標車両の加速度を得ることと、前記目標車両の加速度に基づいて、前記目標車両に突発イベントが発生するか否かを判断することとを含む。【選択図】図1

Description

本開示は、データ処理の分野に関し、特に、スマート交通の分野に関する。
自動運転シーンにおいて、自動運転車両は走行中に、周囲の車両の走行状態を判定し、適切な操作を即時に実行することで交通事故を避ける。したがって、どのようにビデオデータによって分析すべき目標車両の走行状態を記録及び分析するかは、自動運転分野で解決すべき課題となる。
本開示の実施形態は、従来技術における少なくとも1つの課題を解決するために、クラウドコントロールプラットフォームに用いるイベント検出方法、装置、設備及び記憶媒体を提供する。
本開示の実施形態の第1態様では、
目標領域の監視ビデオにより、目標領域に位置する目標車両を検出することと、
目標車両に対する収集時間、及び収集時間に対応する画像フレームにおける目標車両の位置情報を決定することと、
少なくとも収集時間及び位置情報に基づいて、目標車両の加速度を得ることと、
目標車両の加速度に基づいて、目標車両に突発イベントが発生するか否かを判断することとを含む、イベント検出方法を提供する。
本開示の実施形態の第2態様では、
目標領域の監視ビデオにより、目標領域に位置する目標車両を検出するための目標車両検出モジュールと、
目標車両に対する収集時間、及び収集時間に対応する画像フレームにおける目標車両の位置情報を決定するための位置情報モジュールと、
少なくとも収集時間及び位置情報に基づいて、目標車両の加速度を得るための加速度モジュールと、
目標車両の加速度に基づいて、目標車両に突発イベントが発生するか否かを判断するための突発イベントモジュールとを備える、イベント検出装置を提供する。
本開示の実施形態の第3態様では、
少なくとも1つのプロセッサと、
少なくとも1つのプロセッサと通信接続されるメモリとを備え、
メモリには少なくとも1つのプロセッサによって実行可能なコマンドが記憶されており、コマンドは、少なくとも1つのプロセッサによって実行されると、少なくとも1つのプロセッサに本開示のいずれかの実施形態に係る方法を実行させる、電子設備を提供する。
本開示の実施形態の第4態様では、コンピュータコマンドが記憶されている非一時的なコンピュータ可読記憶媒体であって、コンピュータコマンドはコンピュータに本開示のいずれかの実施形態に係る方法を実行させる、非一時的なコンピュータ可読記憶媒体を提供する。
本開示の実施形態の第5態様では、
路側設備から目標領域の監視ビデオを取得することと、
目標領域の監視ビデオにより、前記目標領域に位置する目標車両を検出することと、
前記目標車両に対する収集時間、及び前記収集時間に対応する画像フレームにおける前記目標車両の位置情報を決定することと、
少なくとも前記収集時間及び前記位置情報に基づいて、前記目標車両の加速度を得ることと、
前記目標車両の加速度に基づいて、前記目標車両に突発イベントが発生するか否かを判断することとを含む、クラウドコントロールプラットフォームに用いるイベント検出方法を提供する。
本開示の実施形態は次の利点(有益な効果)を有する。取得した監視ビデオに基づいて、目標車両の加速度を計算した後、目標車両の加速度に基づいて、目標車両に突発イベントが発生するか否かを判断することにより、道路又は環境中の多くのカメラが収集したデータによる、道路上の各車両における突発イベント検出を実現し、道路交通シーンにおける各車両の突発的な状況を迅速に、正確に把握することができる。
前記各態様の他の効果については具体的な実施形態を用いる次の説明に記載する。
次に記載の各図面は本開示の理解を促すためのもので、本開示の限定にならない。
本開示の一実施形態によるイベント検出方法の模式図である。 本開示の実施形態による段階的差分法による加速度の計算の模式図である。 本開示の実施形態による緊急ブレーキイベントの速度−時間関係の模式図である。 本開示の実施形態による緊急ブレーキイベントの速度−時間関係の模式図である。 本開示の実施形態による緊急ブレーキイベントの速度−時間関係の模式図である。 本開示の別の実施形態によるイベント検出方法の模式図である。 本開示の別の実施形態によるイベント検出装置の模式図である。 本開示の別の実施形態によるイベント検出装置の模式図である。 本開示の別の実施形態によるイベント検出装置の模式図である。 本開示の別の実施形態によるイベント検出装置の模式図である。 本開示の実施形態のイベント検出方法を実現するための電子設備のブロック図である。
次に、図面を参照して本開示の例示的な実施形態を説明し、中には理解を促すために本開示の実施形態の様々な詳細が含まれるが、それが例示的な内容に過ぎない。したがって、当業者が理解したように、本開示の範囲や趣旨から逸脱せずここに記載の実施形態に対し様々な変更や修正を行うことができる。また、次の説明では簡素化の観点上、周知の機能及び構造の説明は省略する。
本開示の実施形態は検出方法を提供し、道路又は環境中に設置されたカメラで収集領域のビデオデータを取得し、当該ビデオデータに基づいて、収集領域における運動状態の対象を目標対象と決定し、さらに当該ビデオデータに基づいて、目標対象の加速度情報を決定する。加速度情報に基づいて目標対象に突発イベントが発生するか否かを決定する。これにより、いくつかのシーンでは、例えば、道路交通シーンでは、目標対象の周囲の他の対象に、突発イベント発生に関するアラーム情報を送信できる。道路交通シーンでは、道路に多くのカメラが設置されるため、目標対象における突発イベント発生を直ちに検出でき、その後、突発イベントが発生したことでアラームなど後続の動作を行うことができる。
本開示の実施形態はイベント検出方法を提供し、図1に示すとおり、ステップS11〜S14を含む。
ステップS11で、目標領域の監視ビデオにより、目標領域に位置する目標車両を検出する。
ステップS12で、目標車両に対する収集時間、及び収集時間に対応する画像フレームにおける目標車両の位置情報を決定する。
ステップS13で、少なくとも収集時間及び位置情報に基づいて、目標車両の加速度を得る。
ステップS14で、目標車両の加速度に基づいて、目標車両に突発イベントが発生するか否かを判断する。
本実施形態では、監視ビデオは複数の画像フレームを含み、目標領域の周囲に設置されたビデオ撮影装置が取得するビデオであってもよい。例えば、本実施形態の方法を道路交通シーンに用いる場合に、道路の両側、交差点及び道路の周囲の建物などに設置されたカメラでビデオデータを取得してもよいし、車両など他の移動対象に設置されたカメラでビデオデータを取得してもよい。本実施形態では、目標領域の目標車両の検出は、任意のターゲット検出アルゴリズムで監視ビデオについて検出してもよい。
本実施形態では、監視ビデオの撮影範囲によって、目標車両に突発イベントが発生するかの判断を行う必要があるかを決定してもよい。例えば、高精度地図データから、監視ビデオの撮影範囲が自動車用車線又は交差点を含むとする場合に、ステップS11〜S14を実行して、目標車両に突発イベントが発生するか否かを判断する。
本実施形態では、目標車両は監視ビデオで運動中の車両のいずれかであってもよく、例えば、自動車、非自動車などである。一実現形態では、目標車両は監視ビデオで速度がある車両のいずれかであってもよい。監視ビデオにより、各ビデオフレームにおける各対象の輪郭情報及び各ビデオフレームにおける運動領域と非運動領域を決定してもよい。次に、各ビデオフレームにおける各対象の輪郭情報及び各ビデオフレームにおける運動領域と非運動領域に基づいて、各対象から運動状態の対象を決定する。
本開示の実施形態では、監視ビデオにおける1つ以上のビデオフレームから各対象の輪郭情報を決定してもよい。例えば、インスタンスセグメンテーションの方法でビデオフレームにおける各対象の輪郭情報を取得する。例えば、ニューラルネットワークに基づくセグメンテーションの方法を利用し、分離した背景は対象以外の物体(例えば、道路、空など)であり、分離した前景は各対象(例えば、人間、自動車、非自動車など)である。
本実施形態では、目標領域の監視ビデオにより、目標領域に位置する目標車両を検出するステップは、目標対象の運動方向の後方に他の目標対象が存在することが決定した場合に、ステップS12に入ることを含んでもよい。具体的には、目標対象の目標領域における車線情報を具体的に検出することと、高精度地図データに基づいて、車線情報に対応する交通流方向を取得することと、周辺のビデオ取得装置が提供する車両情報及び交通流方向に基づいて、目標車両の後方に他の車両が存在するか否かを決定し、存在する場合に、ステップS12に入ることとを含んでもよい。
本実施形態では、目標領域とは監視ビデオがカバーする領域であってもよいし、監視ビデオがカバーする領域で関心を持つ領域であってもよい。例えば、本実施形態の方法を道路交通シーンに用いる場合に、目標領域は監視ビデオにおける道路領域であってもよい。
本実施形態では、目標車両に対する収集時間は複数の目標時点を含んでもよく、目標時点とは監視ビデオが含む時点であってもよい。例えば、監視ビデオの時間範囲がt1〜t100である場合に、目標時点はt1〜t100のうちの任意の時点であってもよい。各目標時点は特定の画像フレームに対応してもよい。一目標対象については、目標時点が1つであってもよいし、複数であってもよく、目標時点が複数である場合に、目標時点間の間隔は同じであってもよいし異なってもよい。
本実施形態では、目標車両に対する収集時間、及び収集時間に対応する画像フレームにおける目標車両の位置情報を決定するステップは、監視ビデオにおいて、目標車両に対する複数の目標時点を決定することと、決定した目標時点によって、対応する画像フレームを取得することと、目標車両の画像フレームにおける画素位置情報を決定することと、画素位置情報を目標車両の画像フレームにおける位置情報とすることとを含んでもよい。特定の実施形態では、カルマンフィルタを用いて、取得した目標時点に対応する位置についてフィルタリングすることで、目標車両の位置に大きなジッタが生じることを避ける。
本実施形態では、目標車両に対する収集時間、及び収集時間に対応する画像フレームにおける目標車両の位置情報を決定するステップは、監視ビデオにおいて、目標車両に対する複数の目標時点を決定することと、決定した目標時点によって、対応する画像フレームを取得することと、目標車両の画像フレームにおける画素位置情報を決定することと、目標車両の画像フレームにおける位置情報をワールド座標系における位置情報に変換することと、ワールド座標系における位置情報を目標車両の画像フレームにおける位置情報とすることとを含んでもよい。
本実施形態では、収集時間及び位置情報に基づいて、目標車両の加速度を得る。ここで、収集時間は複数の目標時点を含んでもよく、複数の目標時点が複数の位置情報に対応する。これにより、複数の目標時点及び対応する複数の位置情報に基づいて、時間−位置曲線を得、数学計算で目標車両の加速度情報を得る。例えば、複数の目標時点及びに対応する複数の位置情報を利用して変位−時間方程式を得た後、加速度を得る。
本実施形態では、目標車両の加速度に基づいて、目標車両に突発イベントが発生するか否かを判断するステップは、少なくとも目標車両の加速度に基づいて、目標車両に突発イベントが発生するか否かを判断することであってもよい。具体的には、突発イベントとは目標車両の緊急ブレーキイベント、目標車両の緊急加速イベント又は目標車両加速度に関連する他の任意の運転イベントであってもよい。また、突発イベントとは目標車両の運転中に短い間に生じた、周囲の車両が速やかに対応を取らないと交通事故が起こり得るようなイベントであってもよい。他の実施形態では、目標車両の加速度と目標車両の他のパラメータを結び付けて、目標車両に突発イベントが発生するか否かを判断してもよい。例えば、目標車両の加速度と速度を結び付けて、目標車両に突発イベントが発生するか否かを判断する。
他の実施形態では、加速度の数値の大きさ及び加速度の方向の少なくとも1つに基づいて、目標車両に突発イベントが発生するか否かを判断してもよい。例えば、加速度の方向が急に変わることで、目標車両に急旋回、車線急変更などの突発イベントが発生すると判断してもよい。加速度の数値の大きさで目標車両に緊急ブレーキか緊急加速イベントが発生すると判断する。
本開示の実施形態では、取得した監視ビデオに基づいて、目標車両の加速度を計算した後、目標車両の加速度に基づいて、目標車両に突発イベントが発生するか否かを判断することで、道路又は環境中の多くのカメラが収集したデータで道路上の各車両に突発イベント分析を行うことにより、道路交通シーンにおける各車両の突発的な状況を迅速に、正確に把握することができ、自動運転車両に周辺車両の運転状態情報を適時に提供し、一般車両に周囲の他の車両の運転状態情報を適時に提供することにより、自動運転車両及び一般車両の運転者が速やかに道路又は環境中の他の車両の走行状態急変イベントについて把握できる。例えば、目標車両が緊急ブレーキするシーンでは、後続の車両が速やかに対応を取らないため追突などの交通事故が起きるが、本開示の実施形態の方法では、車両緊急ブレーキなどの突発的なイベントを迅速に検出できるため、目標車両の周囲の車両に直ちにこれを伝えることで、道路交通シーンにおける車両の安全走行につながる。
本開示の実施形態のイベント検出方法の実行主体は様々な路側設備であってもよく、例えば、路側検知設備、路側検知設備に接続される路側計算設備であってもよいし、路側計算設備に接続されるサーバー、路側検知設備に直接的に接続されるサーバーなどであってもよい。本開示の実施形態でサーバーとは例えば、クラウドコントロールプラットフォーム、路車協調管理プラットフォーム、中央サブシステム、エッジコンピューティングプラットフォーム、クラウドコンピューティングプラットフォームなどである。
一実施形態では、少なくとも収集時間及び位置情報に基づいて、目標車両の加速度を得るステップは、
収集時間において複数の目標時点を決定するステップと、
目標時点に対応する画像フレームにおける位置情報、及び目標時点間の時間間隔に基づいて、目標車両の各目標時点での加速度を算出するステップとを含む。
本実施形態では、同じ時間間隔で、収集時間において複数の目標時点を決定してもよい。例えば、収集時間はt1〜t100の間の全ての連続な時間を含み、つまり無数の目標時点を含み、t1〜t100において、時間間隔tで目標時点をt1、t2、t3、t4、t5、t6、t7と決定し、当該7つの目標時点に対応する画像フレームに基づいて、当該7つの目標時点における目標車両の位置x1、x2、x3、x4、x5、x6、x7を取得し、次に隣接する目標時点間の運動を当てはめによって等加速度運動としてもよい。具体的には、2つの目標時点に対応する目標車両の位置、例えば、t1及びt3に対応する目標車両の位置x1、x3から位置差x3−x1を計算し、これは目標車両が当該2つの目標時点の時間間隔における変位であり、次に等加速度運動の加速度計算式で、t1〜t3期間で目標車両が等加速度運動を行う時の加速度を計算し、これをt1〜t3期間における目標車両の加速度とする。
他の実施形態では、同じ時間間隔で、収集時間において複数の目標時点を決定してもよく、同じ時間間隔とは隣接する画像フレーム間の時間間隔であってもよい。
他の実施形態では、各目標時点及び各目標時点に対応する目標車両の位置情報に基づいて、時間−変位当てはめ曲線を得、当てはめ曲線の斜率を計算して、目標車両の加速度を得てもよい。
本実施形態では、目標時点に対応する画像フレームの位置情報及び目標時点間の時間間隔に基づいて、目標車両の各目標時点での加速度を計算し、計算に使用する位置情報及び時間間隔は目標車両の監視ビデオにより直接的に取得してもよく、計算に時間がかからず、計算結果が正確である。
一実施形態では、目標時点に対応する画像フレームにおける位置情報、及び目標時点間の時間間隔に基づいて、目標車両の各目標時点での加速度を算出するステップは、
前の目標時点とそれに対応する位置情報、及び次の目標時点とそれに対応する位置情報に基づいて、目標車両の中間目標時点での当てはめ加速度を算出して、目標車両の中間目標時点での加速度を得ることを含み、
ここで、中間目標時点は前の目標時点と次の目標時点の間に位置する。
本実施形態では、目標車両の運動曲線は区分線形化の方法で等加速度運動と近似してもよい。目標車両の速度−時間運動曲線が円滑な曲線であり、曲線上の各点が連続で微分可能であるため、各点の付近の一定の連続な区間において線型近似を行って、曲線を小さい区間に分割して、目標車両が区間において等加速度運動を行うと見なしてもよい。よって、段階的差分法で目標車両の加速度を算出できる。図2に示すとおり、等間隔で目標時点t1、t2、t3、t4、t5、t6、t7を得る場合に、t3とt7、t2とt6、t1とt5及びそれぞれに対応する目標車両位置のうちの任意の1組を選択して、t4時点での目標車両の当てはめ加速度を算出し、これをt4時刻での目標車両の加速度としてもよい。具体的には、t3とt7及び対応する目標車両の位置x3とx5からの当てはめ加速度の計算式は、a1=(x7−x3)/4△t2である。t2とt6及び対応する目標車両の位置x2とx6からの目標車両の当てはめ加速度の計算式は、a2=(x6−x2)/4△t2である。t1とt5及び対応する目標車両の位置x1とx5からの目標車両の当てはめ加速度の計算式は、a3=(x5−x1)/4△t2である。ここで、△tは隣接する目標時点間の時間間隔である。a4、a5、a6のうちのいずれかを目標車両のt4時刻での加速度としてもよい。
本実施形態では、前の目標時点とそれに対応する位置情報、及び次の目標時点とそれに対応する位置情報は設定できる。例えば、t1とt7及びそれぞれに対応する目標車両の位置から、t4時点での目標車両の当てはめ加速度を算出し、これをt4時刻での目標車両の加速度としてもよい。具体的には、t1とt7及び対応する目標車両の位置x3とx5からの当てはめ加速度a4の計算式は、a4=(x7−x1)/6△t2である。
本実施形態では、時間間隔が充分に小さい場合に、目標車両の時間間隔での運動は等加速度運動と近似してもよく、算出した加速度と実際の加速度が近いため、このような計算方法は正確であり、後に突発イベントが発生するか否かの判断で効果的な参考になる。
一実施形態では、目標車両の中間目標時点での加速度を得るステップは、
中間目標時点に対応する複数の当てはめ加速度の平均値を中間目標時点の加速度とすることを含む。
一実施形態では、目標車両の中間目標時点の付近の小さい区間における運動を当てはめによって等加速度運動とし、段階的差分法で目標車両の加速度を計算する。同じく図2に示すとおり、等間隔で目標時点t1、t2、t3、t4、t5、t6、t7を得る場合に、それぞれt3とt7、t2とt6、t1とt5及びそれぞれに対応する目標車両位置に基づいて、t4時点での目標車両の3つの当てはめ加速度を計算し、平均値を計算して、t4時刻の目標車両の加速度を得てもよい。具体的には、t3とt7及び対応する目標車両の位置x3とx5からの当てはめ加速度の計算式は、a4=2×(x7−x3)/(t7−t3)2である。t2とt6及び対応する目標車両の位置x2とx6からの目標車両の当てはめ加速度の計算式は、a1=(x6−x2)/4△t2である。t1とt5及び対応する目標車両の位置x1とx5からの目標車両の当てはめ加速度の計算式は、a2=(x5−x1)/4△t2である。a4、a5、a6の平均値を目標車両の加速度としてもよく、つまりt4時刻の加速度aの計算式は、a=(x7+x6+t5−t1−x2−x3)/12△t2である。ここで、△tは隣接する目標時点間の時間間隔である。
本実施形態では、前の目標時点とそれに対応する位置情報、及び次の目標時点とそれに対応する位置情報は設定できる。例えば、t1とt7及びそれぞれに対応する目標車両の位置から、t4時点での目標車両の当てはめ加速度を算出し、これをt4時刻での目標車両の加速度としてもよい。具体的には、t1とt7及び対応する目標車両の位置x3とx5からの当てはめ加速度a4の計算式は、a4=(x7−x1)/6△t2である。
本実施形態では、一目標時点について複数の当てはめ加速度を計算し、次に、複数の当てはめ加速度の平均値を得て、これを目標車両の当該目標時点での加速度とすることにより、算出した加速度の数値の正確さを一層高めることができる。
一実施形態では、突発イベントは目標車両の緊急ブレーキイベントであり、目標車両の加速度に基づいて、目標車両には予め設定された突発イベントが発生するかを判断するステップは、
目標車両の加速度の分散値が加速度分散閾値よりも小さい場合に、
目標車両の加速度の絶対値が第1加速度閾値よりも大きいこと、
目標車両の加速度の平均値の絶対値が第2加速度閾値よりも大きいこと、
目標車両の加速度における、絶対値が第3加速度閾値よりも大きい加速度の数量が、数量閾値よりも大きいこと、
を少なくとも1つ満たすとき、目標車両に予め設定された突発イベントが発生すると決定することを含む。
本実施形態では、道路上の目標車両の運転で発生する緊急ブレーキイベントには図3A〜図3Cに示すパターンがある。図3Aは、発進加速中に車両に発生する緊急ブレーキイベントを示す。図3Bは、通常走行中に車両に発生する緊急ブレーキイベントを示す。図3Cは、任意の状態の車両において緊急ブレーキイベントが発生した後、すぐに加速することを示す。
本実施形態では、判断要件の厳しさによって、前記複数の判断条件のうちの1つ以上を満たす場合に、緊急ブレーキイベントが発生するものと設定してもよい。例えば、判断要件が緩い場合には、前記複数の判断条件のうちのいずれかを満たすと、目標車両に緊急ブレーキイベントが発生すると判定する。判断要件が中等度である場合には、前記複数の判断条件の1つ以上を満たすと目標車両に緊急ブレーキイベントが発生すると判定する。判断要件が厳しい場合には、前記複数の判断条件の全てを満たすと、目標車両に緊急ブレーキイベントが発生すると判定する。
目標車両の加速度の分散値が加速度分散閾値よりも小さい場合に、算出した加速度はノイズが小さく、数値が正確であることを示す。第1加速度閾値、第2加速度閾値及び第3加速度閾値は同じ閾値であってもよい。
本実施形態では、加速度の絶対値に基づいて、緊急ブレーキイベントが発生するか否かを決定することにより、車両による緊急ブレーキイベントの報告がもたらす前記問題が避けられ、アラーム遅延の問題が緩和され、しかも汎用性が高い。
一実施形態では、イベント検出方法は図4に示すとおり、図1のイベント検出方法に加え、ステップS41をさらに含む。
ステップS41で、突発イベントに基づいて、イベント報告情報を生成し、イベント報告情報を送信する。
本実施形態では、イベント報告情報の受信者は所定のサーバーであってもよく、所定のサーバーがイベント報告を受信した後、目標車両の周囲の車両にイベント報告情報を送信すると、他の車両は速やかに対応を取って事故の発生を避けることができる。
イベント報告情報の受信者は目標車両の周囲の他の車両であってもよい。V2X(Vehicle To Everything、車両間/路車間通信技術)により車両間で通信、突発イベント報告の送信及び取得を行うことできる。車載ユニット(On board Unit、略称OBU)を設置した車両の場合は、予め設定したイベントの報告をプラットフォームから取得してもよいし、路側に路側ユニット(Road Side Unit、略称RSU)を設置し、互いのマイクロ波通信により、突発イベントの報告を周囲の車両に送信してもよく、当該OBUは自動運転車両のIDを示す。自動運転車両の場合、交通事故の発生状況について速やかに情報を取得し、なるべく短い時間内に最新の道路交通状況に基づいて走行経路を調整し、経路区間に交通事故が発生した場合に交通事故が再発することを避ける。
本実施形態では、イベント報告情報の受信者は目標車両の周囲の他の車両であってもよく、自動車のインターネット化、車載外部表示装置、OBUなどによって、目標車両に発生する突発イベントの情報を周囲の車両と共有すると、他の車両は速やかに対応を取って事故の発生を避けることができる。
特定の一実現形態では、目標車両は自動運転車両である。
別の特定の実現形態では、報告情報の受信者は自動運転車両である。
別の特定の実現形態では、報告情報の受信者は目標車両の周囲の所定範囲における自動運転車両である。V2X通信により車両を測位し、目標車両の周囲の車両を決定することができる。つまり、OBUを取り付けた車両はブロードキャストで当該車両の一意ID(例えば、エンジン番号)、当該車両の現在位置及び報告時刻のタイムスタンプを報告してもよい。車両の位置はその測位システムによって取得してもよいが、より高精度の位置を得るためには車両にディファレンシャルGPS(Global Position System、グローバル・ポジショニング・システム)をインストールしてもよい。エッジコンピューティングプラットフォーム又はクラウドコンピューティングプラットフォームが、車両が報告した情報を受信した後、まずカルマンフィルタを用いて障害物の報告位置についてフィルタリングし、障害物の報告位置の円滑性を向上させ、障害物の位置に大きなジッタを防ぐ。次に各車両が報告した位置情報に基づいて、目標車両の周囲の車両を決定する。
一実施形態では、目標領域の監視ビデオにより、目標領域に位置する目標車両を検出するステップは、
監視ビデオにより、目標領域における対象の速度を決定するステップと、
速度が速度閾値よりも大きい対象を目標車両とするステップとを含む。
本実施形態では、速度閾値は安全基準に基づいて決定してもよい。
なお、運動速度が非常に小さい対象では緊急ブレーキイベントの発生がまずなく、しかも低速においては、追跡アルゴリズムの慣性により一定の速度変動が伴う。本実施形態ではこれに鑑みて、低速運動の対象を取り除くことで、計算量を減らし、応答速度を高めることができる。
さらに、本開示の実施形態はイベント検出装置を提供し、図5に示すとおり、
目標領域の監視ビデオにより、目標領域に位置する目標車両を検出するための目標車両検出モジュール51と、
目標車両に対する収集時間、及び収集時間に対応する画像フレームにおける目標車両の位置情報を決定するための位置情報モジュール52と、
少なくとも収集時間及び位置情報に基づいて、目標車両の加速度を得るための加速度モジュール53と、
目標車両の加速度に基づいて、目標車両に突発イベントが発生するか否かを判断するための突発イベントモジュール54とを備える。
一実施形態では、図6に示すとおり、加速度モジュール53は、
収集時間において複数の目標時点を決定するための目標時点ユニット61と、
目標時点に対応する画像フレームにおける位置情報、及び目標時点間の時間間隔に基づいて、目標車両の各目標時点での加速度を算出するための計算ユニット62とを備える。
一実施形態では、計算ユニットは、さらに、
前の目標時点とそれに対応する位置情報、及び次の目標時点とそれに対応する位置情報に基づいて、目標車両の中間目標時点での当てはめ加速度を算出して、目標車両の中間目標時点での加速度を得るために用いられ、
ここで、中間目標時点は前の目標時点と次の目標時点の間に位置する。
一実施形態では、計算ユニットは、さらに、
中間目標時点に対応する複数の当てはめ加速度の平均値を中間目標時点の加速度とするために用いられる。
一実施形態では、突発イベントは目標車両の緊急ブレーキイベントであり、突発イベントモジュールは、さらに、
目標車両の加速度の分散値が加速度分散閾値よりも小さい場合に、
目標車両の加速度の絶対値が第1加速度閾値よりも大きいこと、
目標車両の加速度の平均値の絶対値が第2加速度閾値よりも大きいこと、
目標車両の加速度における、絶対値が第3加速度閾値よりも大きい加速度の数量が、数量閾値よりも大きいこと、
を少なくとも1つ満たすとき、目標車両に予め設定された突発イベントが発生すると決定するために用いられる。
一実施形態では、図7に示すとおり、
突発イベントに基づいて、イベント報告情報を生成し、イベント報告情報を送信するための報告モジュール71をさらに備える。
一実施形態では、図8に示すとおり、目標車両検出モジュール51は、
監視ビデオにより、目標領域における対象の速度を決定するための速度ユニット81と、
速度が速度閾値よりも大きい対象を目標車両とするための目標車両ユニット82とを備える。
本開示の実施形態による装置の各モジュールの機能は、前記方法実施形態での対応の記載を参照できるため、ここで重複を避けるために説明を省略する。
本開示の実施形態はスマート交通において路車協調システムアーキテクチャに用いることができ、スマート交通において路車協調システムアーキテクチャは路側設備を含む。路側設備は路側検知設備、路側計算設備を含み、路側検知設備(例えば、路側カメラ)は路側計算設備(例えば、路側計算ユニット(RSCU))に接続され、路側計算設備はサーバーに接続される。別のシステムアーキテクチャにおいては、路側検知設備自体が計算機能を備えるため、路側検知設備は直接的に前記サーバーに接続される。ここで、接続とは有線であってもよいし無線であってもよい。本開示でサーバーとは例えば、クラウドコントロールプラットフォーム、路車協調管理プラットフォーム、中央サブシステム、エッジコンピューティングプラットフォーム、クラウドコンピューティングプラットフォームなどである。
さらに、本開示の実施形態では、電子設備及び可読記憶媒体を提供する。
図9は、本開示の実施形態によるイベント検出方法を実現するための電子設備のブロック図である。電子設備としては、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバー、ブレードサーバー、大型コンピュータ、他の適切なコンピュータなど、様々な形態のデジタルコンピュータであってもよい。また、パーソナルデジタルアシスタント、セルラーホン、スマートフォン、ウェアラブルデバイス、他の類似の計算設備など、様々な形態の移動設備であってもよい。本明細書に記載のコンポーネント、その接続関係、及びその機能は例示的なものに過ぎず、本開示の実施に関して本明細書に記載及び/又は主張された内容に限定を加えるためではない。
図9に示すとおり、当該電子設備は、1つ以上のプロセッサ901と、メモリ902と、各コンポーネントを接続するためのインタフェース(高速インタフェース及び低速インタフェース)とを含む。各コンポーネントは異なるバスによって互いに接続され、共通のマザーボードに取り付けられ、又は所望の方式で取り付けられてもよい。プロセッサは外部の入力/出力装置(例えば、インタフェースによって接続された表示設備)にグラフィカルユーザーインタフェース(Graphical User Interface、略称GUI)のグラフィック情報を表示するようにメモリに記憶されているコマンドなど、電子設備において実行されるコマンドを処理することができる。他の実施形態では、必要ならば、複数のプロセッサ及び/又は複数のバスと複数のメモリを複数のメモリと一緒に使用してもよい。同様に、複数の電子設備を接続させ、各設備が必要な操作の一部を提供するようにしてもよい(例えば、サーバーアレイ、1群のブレードサーバー、又はマルチプロセッサシステムとする)。図9では、例示的にプロセッサ901が1つあるものである。
メモリ902は、本開示に係る非一時的なコンピュータ可読記憶媒体である。前記メモリには、少なくとも1つのプロセッサが本開示に係るイベント検出方法を実行するように、少なくとも1つのプロセッサによって実行可能なコマンドが記憶されている。本開示に係る非一時的なコンピュータ可読記憶媒体にはコンピュータコマンドが記憶されており、当該コンピュータコマンドはコンピュータに本開示に係るイベント検出方法を実行させる。
メモリ902は非一時的なコンピュータ可読記憶媒体として、非一時的ソフトウェアプログラム、非一時的なコンピュータ実行可能プログラム及びモジュール、例えば、本開示の実施形態に係るイベント検出方法に対応するプログラムコマンド/モジュール(例えば、図5に示す目標車両検出モジュール51、位置情報モジュール52、加速度モジュール53及び突発イベントモジュール54)を記憶するために用いることができる。プロセッサ901はメモリ902に記憶されている非一時的ソフトウェアプログラム、コマンド及びモジュールを動作させることにより、サーバーの様々な機能及びデータ処理を実行し、即ち前記方法実施形態に係るイベント検出方法を実現する。
メモリ902はプログラム記憶領域及びデータ記憶領域を含んでもよく、プログラム記憶領域はオペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラムを記憶することができ、データ記憶領域はイベント検出方法を実現するための電子設備の使用時に作成されたデータ等を記憶することができる。また、メモリ902は高速ランダムアクセスメモリを含んでもよいし、非一時的メモリを含んでもよく、例えば、少なくとも1つの磁気ディスク記憶素子、フラッシュメモリ素子、又は他の非一時的固体記憶素子である。いくつかの実施形態では、任意選択でメモリ902はプロセッサ901に対して遠隔設置されたメモリを含み、当該遠隔メモリはネットワークを介して前記電子設備に接続されてもよい。前記ネットワークの例はインターネット、イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、その組み合わせを含むが、これに限定されない。
前記電子設備は、入力装置903及び出力装置904をさらに含んでもよい。プロセッサ901、メモリ902、入力装置903及び出力装置904はバス又は他の方式で接続されてもよく、図9では、例示的にバスによって接続されたものである。
入力装置903は入力されたデジタル又は文字情報を受信し、前記電子設備のユーザー設定や機能制御に関連するキー信号入力を生成することができ、例えば、タッチスクリーン、テンキー、マウス、トラックパッド、タッチパッド、インジケータスティック、1つ以上のマウスボタン、トラックボール、ジョイスティック等入力装置である。出力装置904は表示設備、補助照明装置(例えば、LED)、触覚フィードバック装置(例えば、振動モーター)等を含んでもよい。当該表示設備は、液晶ディスプレイ(Liquid Crystal Display、略称LCD)、発光ダイオード(Light Emitting Diode、略称LED)ディスプレイ、プラズマディスプレイを含むが、これに限定されない。いくつかの実施形態では、表示設備はタッチスクリーンであってもよい。
ここに記載のシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向け集積回路(Application Specific Integrated Circuits、略称ASIC)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はその組み合わせにおいて実施できる。前記実施形態は次のものを含んでもよい。1つ以上のコンピュータプログラムにおいて実施され、当該1つ以上のコンピュータプログラムは少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステムにおいて実行及び/又は解釈されてもよく、当該プログラマブルプロセッサは専用又は汎用のプログラマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置及び少なくとも1つの出力装置からデータ及びコマンドを受信し、且つデータ及びコマンドを当該記憶システム、当該少なくとも1つの入力装置及び当該少なくとも1つの出力装置に伝送することができる。
前記コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、コードともいう)にはプログラマブルプロセッサ用機械コマンドを含み、且つ高度なプロセス及び/又はオブジェクト指向のプログラミング言語、及び/又はアセンブリ/機械言語を用いて前記コンピュータプログラムを実施することができる。本明細書で、用語「機械可読媒体」及び「コンピュータ可読媒体」とは機械コマンド及び/又はデータをプログラマブルプロセッサに提供するあらゆるコンピュータプログラム製品、設備、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(programmable logic device、略称PLD))であり、機械可読信号としての機械コマンドを受信する機械可読媒体を含む。用語「機械可読信号」とは、機械コマンド及び/又はデータをプログラマブルプロセッサに提供するためのあらゆる信号である。
ユーザーとのインタラクションを実現するように、コンピュータにおいてここに記載のシステム及び技術を実現することができ、当該コンピュータは、ユーザーに情報を表示するための表示装置(例えば、CRt(Cathode Ray tube、陰極線管)又はLCD(液晶ディスプレイ))と、キーボードと、ポインティングデバイス(例えば、マウス又はトラックボール)を備え、ユーザーは当該キーボード及び当該ポインティングデバイスによってコンピュータに入力することができる。他にもユーザーとのインタラクションを実現するための装置がある。例えば、ユーザーへのフィードバックは感覚的なフィードバック(例えば、視覚的なフィードバック、聴覚的なフィードバック、触覚的なフィードバック)など任意の形態であってもよく、また任意の方式(声入力、音声入力、触覚入力)でユーザーの入力を受信することができる。
ここに記載のシステム及び技術は、バックグラウンドコンポーネントを含むコンピューティングシステム(例えば、データサーバー)、又は中間コンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバー)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザーインタフェース又はウェブブラウザーを備えるパソコンであって、ユーザーは当該グラフィカルユーザーインタフェース又は当該ウェブブラウザーによってここに記載のシステム及び技術の実施形態とインタラクションを行うことができる)、又は前記バックグラウンドコンポーネント、中間コンポーネント、もしくはフロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムにおいて実施することができる。任意の方式又は媒体によるデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを互いに接続させることができる。通信ネットワークの例は、ローカルエリアネットワーク(Local Area Network、略称LAN)、ワイドエリアネットワーク(Wide Area Network、略称WAN)、インターネットを含む。
コンピュータシステムはクライアント及びサーバーを含んでもよい。クライアントとサーバーは一般に遠隔設置され、且つ通信ネットワークによって互いに接続される。コンピュータで実行されるクライアント−サーバー型配置のコンピュータプログラムによってクライアントとサーバーの関係を構成する。
本開示の実施形態の技術的解決手段によれば、取得した監視ビデオに基づいて、目標車両の加速度を計算した後、目標車両の加速度に基づいて、目標車両に突発イベントが発生するか否かを判断することで、道路又は環境中の多くのカメラが収集したデータで道路上の各車両に突発イベント分析を行うことにより、道路交通シーンにおける各車両の突発的な状況を迅速に、正確に把握することができ、自動運転車両に周辺車両の運転状態情報を適時に提供し、一般車両に周囲の他の車両の運転状態情報を適時に提供することにより、自動運転車両及び一般車両の運転者が速やかに道路又は環境中の他の車両の走行状態急変イベントについて把握できる。例えば、目標車両が緊急ブレーキするシーンでは、後続の車両が速やかに対応を取らないため追突などの交通事故が起きるが、本開示の実施形態の方法では、車両緊急ブレーキなどの突発的なイベントを迅速に検出できるため、目標車両の周囲の車両に直ちにこれを伝えることで、道路交通シーンにおける車両の安全走行につながる。
なお、上記の様々なプロセスを踏まえて、ステップを並べ替え、追加、又は削除することができる。例えば、本開示に記載の各ステップは同時に実行されてもよいし、順に実行されてもよいし、他の順番で実行されてもよく、本開示の技術的解決手段の効果を得られるものであれば、本明細書では特に限定しない。
上記のいくつかの実施形態は、本開示の保護範囲を限定するものと見なされない。当業者が理解したように、設計上の要件や他の要素に基づいて、様々な修正や、組み合わせ、置き換えを行うことができる。本開示の趣旨においてなされた修正、同等な置き換えや改善等は、いずれも本開示の保護範囲に含まれる。

Claims (18)

  1. 目標領域の監視ビデオにより、前記目標領域に位置する目標車両を検出することと、
    前記目標車両に対する収集時間、及び前記収集時間に対応する画像フレームにおける前記目標車両の位置情報を決定することと、
    少なくとも前記収集時間及び前記位置情報に基づいて、前記目標車両の加速度を得ることと、
    前記目標車両の加速度に基づいて、前記目標車両に突発イベントが発生するか否かを判断することとを含む、
    イベント検出方法。
  2. 少なくとも前記収集時間及び前記位置情報に基づいて、前記目標車両の加速度を得ることは、
    前記収集時間において複数の目標時点を決定することと、
    前記目標時点に対応する画像フレームにおける位置情報、及び前記目標時点間の時間間隔に基づいて、前記目標車両の各前記目標時点での加速度を算出することとを含む、
    請求項1に記載のイベント検出方法。
  3. 前記目標時点に対応する画像フレームにおける位置情報、及び前記目標時点間の時間間隔に基づいて、前記目標車両の各前記目標時点での加速度を算出することは、
    前の前記目標時点とそれに対応する位置情報と、及び次の前記目標時点とそれに対応する位置情報とに基づいて、前記目標車両の中間目標時点での当てはめ加速度を算出して、前記目標車両の前記中間目標時点での加速度を得ることを含み、
    ここで、前記中間目標時点は、前の前記目標時点と次の前記目標時点の間に位置する、
    請求項2に記載のイベント検出方法。
  4. 前記目標車両の前記中間目標時点での加速度を得ることは、
    前記中間目標時点に対応する複数の当てはめ加速度の平均値を前記中間目標時点の加速度とすることを含む、
    請求項3に記載のイベント検出方法。
  5. 前記突発イベントは、前記目標車両の緊急ブレーキイベントであり、
    前記目標車両の加速度に基づいて、前記目標車両に予め設定された突発イベントが発生するか否かを判断することは、
    前記目標車両の加速度の分散値が加速度分散閾値よりも小さい場合に、
    前記目標車両の加速度の絶対値が第1加速度閾値よりも大きいこと、
    前記目標車両の加速度の平均値の絶対値が第2加速度閾値よりも大きいこと、
    前記目標車両の加速度における、絶対値が第3加速度閾値よりも大きい加速度の数量が、数量閾値よりも大きいこと、
    を少なくとも1つ満たすとき、前記目標車両に予め設定された突発イベントが発生すると決定することを含む、
    請求項1〜4のいずれか1項に記載のイベント検出方法。
  6. 前記突発イベントに基づいて、イベント報告情報を生成し、前記イベント報告情報を送信することをさらに含む、
    請求項1に記載のイベント検出方法。
  7. 目標領域の監視ビデオにより、前記目標領域に位置する目標車両を検出することは、
    前記監視ビデオにより、前記目標領域における対象の速度を決定することと、
    前記速度が速度閾値よりも大きい対象を前記目標車両とすることとを含む、
    請求項1に記載のイベント検出方法。
  8. 路側設備から目標領域の監視ビデオを取得することと、
    目標領域の監視ビデオにより、前記目標領域に位置する目標車両を検出することと、
    前記目標車両に対する収集時間、及び前記収集時間に対応する画像フレームにおける前記目標車両の位置情報を決定することと、
    少なくとも前記収集時間及び前記位置情報に基づいて、前記目標車両の加速度を得ることと、
    前記目標車両の加速度に基づいて、前記目標車両に突発イベントが発生するか否かを判断することとを含む、
    クラウドコントロールプラットフォームに用いるイベント検出方法。
  9. 目標領域の監視ビデオにより、前記目標領域に位置する目標車両を検出するための目標車両検出モジュールと、
    前記目標車両に対する収集時間、及び前記収集時間に対応する画像フレームにおける前記目標車両の位置情報を決定するための位置情報モジュールと、
    少なくとも前記収集時間及び前記位置情報に基づいて、前記目標車両の加速度を得るための加速度モジュールと、
    前記目標車両の加速度に基づいて、前記目標車両に突発イベントが発生するか否かを判断するための突発イベントモジュールとを備える、
    イベント検出装置。
  10. 前記加速度モジュールは、
    前記収集時間において複数の目標時点を決定するための目標時点ユニットと、
    前記目標時点に対応する画像フレームにおける位置情報、及び前記目標時点間の時間間隔に基づいて、前記目標車両の各前記目標時点での加速度を算出するための計算ユニットとを備える、
    請求項9に記載のイベント検出装置。
  11. 前記計算ユニットは、
    前の前記目標時点とそれに対応する位置情報、及び次の前記目標時点とそれに対応する位置情報に基づいて、前記目標車両の中間目標時点での当てはめ加速度を算出して、前記目標車両の前記中間目標時点での加速度を得るためにさらに用いられ、
    ここで、前記中間目標時点は、前の前記目標時点と次の前記目標時点の間に位置する、
    請求項10に記載のイベント検出装置。
  12. 前記計算ユニットは、
    前記中間目標時点に対応する複数の当てはめ加速度の平均値を前記中間目標時点の加速度とするためにさらに用いられる、
    請求項11に記載のイベント検出装置。
  13. 前記突発イベントは、前記目標車両の緊急ブレーキイベントであり、前記突発イベントモジュールは、
    前記目標車両の加速度の分散値が加速度分散閾値よりも小さい場合に、
    前記目標車両の加速度の絶対値が第1加速度閾値よりも大きいこと、
    前記目標車両の加速度の平均値の絶対値が第2加速度閾値よりも大きいこと、
    前記目標車両の加速度における、絶対値が第3加速度閾値よりも大きい加速度の数量が、数量閾値よりも大きいこと、
    を少なくとも1つ満たすとき、前記目標車両に予め設定された突発イベントが発生すると決定するためにさらに用いられる、
    請求項9〜12のいずれか1項に記載のイベント検出装置。
  14. 前記突発イベントに基づいて、イベント報告情報を生成し、前記イベント報告情報を送信するための報告モジュールをさらに備える、
    請求項9に記載のイベント検出装置。
  15. 前記目標車両検出モジュールは、
    前記監視ビデオにより、前記目標領域における対象の速度を決定するための速度ユニットと、
    前記速度が速度閾値よりも大きい対象を前記目標車両とするための目標車両ユニットとを備える、
    請求項9に記載のイベント検出装置。
  16. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサと通信接続されるメモリとを備え、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能なコマンドが記憶されており、前記コマンドは、前記少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに請求項1〜8のいずれか1項に記載のイベント検出方法を実行させる、
    ことを特徴とする電子設備。
  17. コンピュータに請求項1〜8のいずれか1項に記載のイベント検出方法を実行させるコマンドが記憶されている非一時的なコンピュータ可読記憶媒体。
  18. コンピュータにおいて、プロセッサにより実行されると、請求項1〜8のいずれか1項に記載のイベント検出方法を実現ことを特徴とするプログラム。
JP2021115399A 2020-09-16 2021-07-13 クラウドコントロールプラットフォームに用いるイベント検出方法、装置、設備、記憶媒体、及びプログラム Pending JP2021180016A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010972805.8 2020-09-16
CN202010972805.8A CN112053563B (zh) 2020-09-16 2020-09-16 可用于边缘计算平台、云控平台的事件检测方法及设备

Publications (1)

Publication Number Publication Date
JP2021180016A true JP2021180016A (ja) 2021-11-18

Family

ID=73603163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021115399A Pending JP2021180016A (ja) 2020-09-16 2021-07-13 クラウドコントロールプラットフォームに用いるイベント検出方法、装置、設備、記憶媒体、及びプログラム

Country Status (5)

Country Link
US (1) US20210224553A1 (ja)
EP (1) EP3893221B1 (ja)
JP (1) JP2021180016A (ja)
KR (1) KR20210040320A (ja)
CN (1) CN112053563B (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112581763A (zh) * 2020-12-11 2021-03-30 北京百度网讯科技有限公司 道路事件检测的方法、装置、设备和存储介质
CN112729187B (zh) * 2020-12-22 2023-02-17 阿波罗智联(北京)科技有限公司 用于生成车辆长度信息的方法、装置、路侧设备和云控平台
CN112948628B (zh) * 2021-03-25 2024-05-28 智道网联科技(北京)有限公司 车联网数据处理方法、装置、设备和存储介质
CN113240909B (zh) * 2021-06-17 2022-11-29 阿波罗智联(北京)科技有限公司 车辆监测方法、设备、云控平台和车路协同系统
CN113793523B (zh) * 2021-08-06 2023-01-13 华为技术有限公司 一种指挥交通的方法、装置、车载设备及车辆
CN114241430A (zh) * 2021-12-22 2022-03-25 杭州海康威视系统技术有限公司 一种事件检测方法、装置、系统、电子设备及存储介质
CN114596650B (zh) * 2022-05-11 2022-08-09 中电科创智联(武汉)有限责任公司 一种用于汽车紧急事件记录的系统
CN115223092B (zh) * 2022-07-15 2023-11-14 广东万龙科技有限公司 一种大数据场景下的视频监控系统及方法
CN116691626B (zh) * 2023-08-08 2023-10-31 徐州奥特润智能科技有限公司 基于人工智能的车辆制动系统及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009070000A (ja) * 2007-09-11 2009-04-02 Sumitomo Electric Ind Ltd 情報提供装置、情報提供システム及び情報提供方法
JP2018077603A (ja) * 2016-11-08 2018-05-17 住友電気工業株式会社 交通情報提供装置、交通情報提供プログラム、交通情報提供方法および交通情報提供システム
CN111598009A (zh) * 2020-05-19 2020-08-28 北京百度网讯科技有限公司 监控急刹车辆的方法、装置、电子设备和存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030080878A1 (en) * 2001-10-30 2003-05-01 Kirmuss Charles Bruno Event-based vehicle image capture
WO2012056655A1 (ja) * 2010-10-28 2012-05-03 パナソニック株式会社 交通事故検出装置及び交通事故検出方法
CN102164270A (zh) * 2011-01-24 2011-08-24 浙江工业大学 具有异常事件发掘功能的智能视频监控方法及系统
CN102622886B (zh) * 2012-03-23 2014-04-30 长安大学 一种基于视频的车辆违章变道事件检测方法
CN105809954B (zh) * 2014-12-30 2018-03-16 清华大学 交通事件检测方法以及系统
CN107644475B (zh) * 2016-07-21 2020-09-01 深圳零一智能科技有限公司 一种车辆碰撞检测的方法和装置以及obd盒子
CN106548142A (zh) * 2016-11-01 2017-03-29 浙江大学 一种基于信息熵的视频中人群突发事件检测与评估方法
US10553092B2 (en) * 2016-12-05 2020-02-04 A9.Com, Inc. Passing vehicle filters for audio/video recording and communication devices
CN108256380A (zh) * 2016-12-28 2018-07-06 南宁市浩发科技有限公司 道路交通异常自动检测方法
CN109278747B (zh) * 2017-07-21 2021-05-07 鸿富锦精密电子(天津)有限公司 车辆监控系统及方法
CN107818312A (zh) * 2017-11-20 2018-03-20 湖南远钧科技有限公司 一种基于异常行为识别的嵌入式系统
CN108230616A (zh) * 2018-02-02 2018-06-29 辽宁友邦网络科技有限公司 一种危险驾驶识别警报方法及系统
CN110164130B (zh) * 2019-04-29 2021-06-15 北京北大千方科技有限公司 交通事件检测方法、装置、设备及存储介质
CN111767851A (zh) * 2020-06-29 2020-10-13 北京百度网讯科技有限公司 突发事件的监控方法、装置、电子设备和介质
CN111767850A (zh) * 2020-06-29 2020-10-13 北京百度网讯科技有限公司 突发事件的监控方法、装置、电子设备和介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009070000A (ja) * 2007-09-11 2009-04-02 Sumitomo Electric Ind Ltd 情報提供装置、情報提供システム及び情報提供方法
JP2018077603A (ja) * 2016-11-08 2018-05-17 住友電気工業株式会社 交通情報提供装置、交通情報提供プログラム、交通情報提供方法および交通情報提供システム
CN111598009A (zh) * 2020-05-19 2020-08-28 北京百度网讯科技有限公司 监控急刹车辆的方法、装置、电子设备和存储介质

Also Published As

Publication number Publication date
EP3893221B1 (en) 2024-02-07
US20210224553A1 (en) 2021-07-22
CN112053563A (zh) 2020-12-08
CN112053563B (zh) 2023-01-20
KR20210040320A (ko) 2021-04-13
EP3893221A1 (en) 2021-10-13

Similar Documents

Publication Publication Date Title
JP2021180016A (ja) クラウドコントロールプラットフォームに用いるイベント検出方法、装置、設備、記憶媒体、及びプログラム
US20220309920A1 (en) Controlling vehicle-infrastructure cooperated autonomous driving
JP6330651B2 (ja) 異常検出装置
KR20210038852A (ko) 조기 경보 방법, 장치, 전자 기기, 컴퓨터 판독 가능 저장 매체 및 컴퓨터 프로그램
US10661795B1 (en) Collision detection platform
JP7068260B2 (ja) データ処理を優先順位付けするシステム及び方法
US20220035733A1 (en) Method and apparatus for checking automatic driving algorithm, related device and storage medium
JP2015230694A (ja) 運転コンテキスト情報生成装置
JPWO2012081209A1 (ja) 渋滞予測方法
JP7223059B2 (ja) 交通事象の報知方法及びその装置、電子機器並びに記憶媒体
CN111767851A (zh) 突发事件的监控方法、装置、电子设备和介质
CN114179832A (zh) 用于自动驾驶车辆的变道方法
JP5895728B2 (ja) 車群管理装置
US11897503B2 (en) Method and apparatus for detecting unexpected control state in autonomous driving system
CN115092130A (zh) 车辆碰撞预测方法、装置、电子设备、介质和车辆
CN114212108A (zh) 自动驾驶方法、装置、车辆、存储介质及产品
CN110595798B (zh) 测试方法及装置
CN111731240A (zh) 急刹车合理性评估方法、装置、设备以及存储介质
CN114282776A (zh) 车路协同评估自动驾驶安全性的方法、装置、设备和介质
CN111563046B (zh) 用于生成信息的方法和装置
CN111598009A (zh) 监控急刹车辆的方法、装置、电子设备和存储介质
JP5450365B2 (ja) 走行支援システム
US20230360531A1 (en) System and method for adaptive v2x applications
JP2020101986A (ja) 安全運転支援装置、端末装置、安全運転支援システム、安全運転支援方法、処理実行方法、およびコンピュータプログラム
CN115146539B (zh) 车辆的安全评价参数确定方法、装置和车辆

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210713

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20220518

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220916

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230413