JP2021111404A - クロスカメラ障害物追跡方法、装置、機器、システム及び媒体 - Google Patents

クロスカメラ障害物追跡方法、装置、機器、システム及び媒体 Download PDF

Info

Publication number
JP2021111404A
JP2021111404A JP2021001461A JP2021001461A JP2021111404A JP 2021111404 A JP2021111404 A JP 2021111404A JP 2021001461 A JP2021001461 A JP 2021001461A JP 2021001461 A JP2021001461 A JP 2021001461A JP 2021111404 A JP2021111404 A JP 2021111404A
Authority
JP
Japan
Prior art keywords
obstacle
camera
tracking
obstacles
identifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021001461A
Other languages
English (en)
Other versions
JP7241783B2 (ja
Inventor
リ,グオ
Guo Li
ガオ,ハン
Han Gao
ソン,ジン
Jing Song
ワン,ジュン
Jun Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021111404A publication Critical patent/JP2021111404A/ja
Application granted granted Critical
Publication of JP7241783B2 publication Critical patent/JP7241783B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0052Filtering, filters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Air Bags (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Studio Devices (AREA)

Abstract

【課題】自動運転技術分野において、障害物追跡の精度を向上させることができるクロスカメラ障害物追跡装置及び方法を提供する。【解決手段】方法は、少なくとも2つのカメラのそれぞれによって撮影された画像の障害物追跡結果は、カメラによって撮影された画像内の少なくとも1つの障害物を識別及び追跡した結果を含み、少なくとも1つの追跡された障害物にローカル識別子が設定されるステップと、各カメラのうちのメインカメラによるクロスカメラ障害物融合のトリガー条件が満たされる場合、各カメラの障害物追跡結果に基づいて、各カメラ内の障害物のローカル識別子とグローバル識別子とのマッピング関係を確立するステップと、各カメラの障害物追跡結果に基づいて障害物の類似度を決定し、類似度に基づいて同じ障害物のグローバル識別子融合を実行するステップと、グローバル識別子でマークされた障害物追跡結果を取得するステップと、を備える。【選択図】図1

Description

本出願は、インテリジェント交通技術分野に関し、特に自動運転技術分野に関し、具体的には、クロスカメラ障害物追跡方法、装置、機器、システム及び媒体に関する。
通信技術の発展に伴い、交通輸送中の自動運転技術と無人運転技術の新たな可能性がある。
現在の無人360度視覚センシングシステムは、通常、各カメラでそれぞれ追跡し、カメラのオーバーラップエリアでの障害物の追跡処理の精度が高くない。
したがって、ターゲットオブジェクトへの追跡の精度を向上させるために、高性能のサラウンドビューマルチターゲット追跡システムをどのように設計するかは、解決すべき緊急の問題になっている。
本出願の実施例は、ターゲットオブジェクトへの追跡の精度を向上させることができるクロスカメラ障害物追跡方法、装置、機器、システム及び媒体を開示する。
第1の態様では、本出願の実施例は、少なくとも2つのカメラのそれぞれによって撮影された画像の障害物追跡結果を取得するステップであって、前記障害物追跡結果は、カメラによって撮影された画像内の少なくとも1つの障害物を識別及び追跡した結果を含み、少なくとも1つの追跡された障害物にローカル識別子が設定されるステップと、各前記カメラのうちのメインカメラによるクロスカメラ障害物融合のトリガー条件が満たされる場合、各カメラの障害物追跡結果に基づいて、各カメラ内の障害物のローカル識別子とグローバル識別子とのマッピング関係を確立するステップと、各カメラの障害物追跡結果に基づいて障害物の類似度を決定し、類似度に基づいて同じ障害物のグローバル識別子融合を実行するステップと、前記グローバル識別子でマークされた障害物追跡結果を取得するステップと、を含むクロスカメラ障害物追跡方法を開示する。
上記の出願の1つの実施例は、次の利点又は有益な効果を有する。産業用コンピュータにより障害物追跡結果を取得し、障害物のローカル識別子とグローバル識別子とのマッピング関係に基づいて障害物の類似度を決定し、類似度に基づいて障害物追跡結果を最終的に決定する。複数のカメラによる障害物の融合処理により、障害物への追跡の精度を向上させることができる。
また、本出願の上記実施例に係るクロスカメラ障害物追跡方法は、さらに次の付加的な技術的特徴を有することができる。
選択可能には、各前記カメラのうちのメインカメラによるクロスカメラ障害物融合のトリガー条件が満たされるステップは、前記メインカメラの現在の画像の障害物識別及び追跡の完了が監視された後、メインカメラの障害物追跡結果が取得された場合、前記トリガー条件が満たされると決定するステップを含み、前記メインカメラは、設定されたカメラであり、又は車両運転中の注目領域に応じて決定される。
上記の出願の1つの実施例は、次の利点又は有益な効果を有する。メインカメラ融合を設定することにより、メインカメラ内の画像がフレームを失わないことを確保することができ、障害物追跡の精度をさらに向上させることができる。
選択可能には、各カメラの障害物追跡結果に基づいて、障害物の類似度を決定するステップの前に、カメラの取り付け位置及び/又はカメラの撮影エリアに従って、オーバーラップエリアにある障害物追跡結果を決定し、対応するグローバル識別子を1つの関連セットに分割するステップをさらに含み、前記関連セットは、障害物の類似度を決定するための範囲として使用される。
上記の出願の1つの実施例は、次の利点又は有益な効果を有する。対応するグローバル識別子を同じ関連セットに分割することにより、同じ関連セット内の障害物が同じ障害物である可能性が高いので、それらが同じ障害物であるか否かを決定するプロセスを減らし、システムの処理効率を向上させることができる。
選択可能には、前記グローバル識別子でマークされた障害物追跡結果を取得するステップは、前記グローバル識別子でマッピングされた1つ又は複数のローカル識別子に対応する障害物追跡結果を取得するステップと、各前記障害物追跡結果に対してルックアラウンド状態処理を実行して、前記グローバル識別子に対応する障害物の最終追跡結果を決定するステップと、を含み、前記最終追跡結果は、車載自動制御システムの運転決定モジュールに送信すされる。
上記の出願の1つの実施例は、次の利点又は有益な効果を有する。同じグローバル識別子に対応する1つ又は複数のローカル識別子の障害物追跡結果に対してルックアラウンド処理を実行することにより、当該グローバル識別子に対応する障害物の最終追跡結果を決定することができ、これにより、車載自動制御システム内の運転決定モジュールの決定がより正確になる。
選択可能には、各カメラの障害物追跡結果に基づいて、各カメラ内の障害物のローカル識別子とグローバル識別子とのマッピング関係を確立するステップは、各カメラの現在の画像の障害物追跡結果が履歴画像にローカル識別子を有することが識別された場合、現在の画像の障害物追跡結果を既存のローカル識別子に対応するグロバール識別子に関連付けるステップと、各カメラの現在の画像の障害物追跡結果が履歴画像にローカル識別子を有さないことが識別された場合、新しく設定されたローカル識別子を新しく作成されたグロバール識別子にマッピングするステップと、を含む。
上記の出願の1つの実施例は、次の利点又は有益な効果を有する。ローカル識別子とグローバル識別子とのマッピング関係が確立された後、同じ障害物を同じグローバル識別子に対応させることができ、障害物への追跡の精度を向上させることができる。
選択可能には、各カメラの障害物追跡結果に基づいて、各カメラ内の障害物のローカル識別子とグローバル識別子とのマッピング関係を確立するステップの後に、各グローバル識別子に対応する2つの前記障害物に対して関連一致性の検出を実行するステップと、異なる障害物であると決定された場合、異なる障害物の追跡結果を異なるグローバル識別子に対応するように分割するステップと、をさらに含む。
上記の出願の1つの実施例は、次の利点又は有益な効果を有する。各グローバル識別子に対応する障害物に対して関連一致性の検出を実行することにより、同じグローバル識別子が同じ障害物に対応することを確保することができる。
選択可能には、各グローバル識別子に対応する2つの前記障害物に対して関連一致性の検出を実行するステップは、各グローバル識別子に対応する2つの前記障害物について、各カメラの障害物の追跡結果に基づいて、位置の一致性、輪郭の一致性及び体積の一致性の少なくとも1つを識別して、関連一致性の検出結果を決定するステップを含む。
上記の出願の1つの実施例は、次の利点又は有益な効果を有する。グローバル識別子に対応する障害物に対して関連一致性の検出を様々な方式で実行することで、関連一致性の検出の精度を向上させることができる。
選択可能には、各カメラの障害物追跡結果に基づいて、障害物の類似度を決定し、類似度に基づいて同じ障害物のグローバル識別子融合を実行するステップは、各カメラの障害物追跡結果に基づいて、異なるグローバル識別子に対応する障害物追跡結果に対して2つ1組で位置情報及び/又H輪郭体積情報の類似度計算を実行し、類似度行列を算出するステップと、前記類似度行列に基づいて同じ障害物のマッチングを実行し、マッチング結果に基づいて同じ障害物に属するグローバル識別子を決定するステップと、同じ障害物のグローバル識別子を併合して融合するステップと、を含む。
上記の出願の1つの実施例は、次の利点又は有益な効果を有する。類似度によって同じ障害物であるか否かを判断し、同じ障害物を併合して融合することで、1つの障害物の3次元画像をより正確に形成することができる。
選択可能には、類似度行列を算出するステップの前に、異なるグローバル識別子に対応する障害物追跡結果に対して条件付き制約フィルタリングを行うステップであって、フィルタリングを制約する条件は、距離制約、車両の中心に接続された光線の方向角差制約、及びエピポーラ幾何学的制約の少なくとも1つを含むステップをさらに含む。
上記の出願の1つの実施例は、次の利点又は有益な効果を有する。条件付き制約フィルタリングを行った後の障害物追跡結果により、障害物の識別効率を向上させることができる。
選択可能には、前記方法の実行主体が産業用コンピュータであり、少なくとも2つのカメラのそれぞれによって撮影された画像の障害物追跡結果を取得するステップは、車載された少なくとも2つのカメラによってそれぞれ車両の周辺環境を撮影した後に収集された画像を取得するステップと、各前記画像に対して障害物の識別及び追跡を実行して、前記障害物の追跡結果を取得するステップと、を含む。
上記の出願の1つの実施例は、次の利点又は有益な効果を有している。少なくとも2つのカメラは、画像を取得し、産業用コンピュータは、画像を取得した後、画像を処理する。この場合、車両に搭載されたカメラは、撮影機能のみを備える場合に適用し、カメラのコストを削減することができる。
選択可能には、前記方法の実行主体が産業用コンピュータであり、少なくとも2つのカメラのそれぞれによって撮影された画像の障害物追跡結果を取得するステップは、車載された少なくとも2つのカメラによって送信された障害物追跡結果を取得するステップであって、前記障害物追跡結果は、カメラが、撮影した画像に基づいて障害物の識別及び追跡を実行するとともにローカル識別子を設定することで取得されるステップを含む。
上記の出願の1つの実施例は、次の利点又は有益な効果を有する。カメラは、画像を取得した後、画像内の障害物を識別及び追跡し、この場合、カメラにはチップが配置されており、カメラは、障害物の追跡結果を独立して完成し、結果を産業用コンピュータに送信することができる。このようにすることで、カメラ自体の機能により障害物追跡結果を実行でき、産業用コンピュータの動作負荷を低減させることができるとう利点を有する。
第2の態様では、本出願の実施例は、少なくとも2つのカメラのそれぞれによって撮影された画像の障害物追跡結果を取得するように構成される追跡結果取得モジュールであって、前記障害物追跡結果は、カメラによって撮影された画像内の少なくとも1つの障害物を識別及び追跡した結果を含み、少なくとも1つの追跡された障害物にローカル識別子が設定される追跡結果取得モジュールと、各前記カメラのうちのメインカメラによるクロスカメラ障害物融合のトリガー条件が満たされると、各カメラの障害物追跡結果に基づいて、各カメラ内の障害物のローカル識別子とグローバル識別子とのマッピング関係を確立するように構成されるマッピング関係確立モジュールと、各カメラの障害物追跡結果に基づいて、障害物の類似度を決定し、類似度に基づいて同じ障害物のグローバル識別子融合を実行するように構成されるグローバル識別子融合モジュールと、前記グローバル識別子でマークされた障害物追跡結果を取得するように構成される追跡結果取得モジュールと、を含むクロスカメラ障害物追跡装置を開示する。
第3の態様では、本出願の実施例は、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサに通信可能に接続されたメモリとを含む電子機器であって、前記メモリには前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも1つのプロセッサに実行される場合、前記少なくとも1つのプロセッサが本出願の実施例のいずれかに記載のクロスカメラ障害物追跡方法を実行可能である電子機器を開示する。
第4の態様では、本出願の実施例は、少なくとも2つの車載カメラを含み、本出願の実施例に記載の電子機器をさらに含み、前記電子機器が産業用コンピュータであるクロスカメラ障害物追跡システムを開示する。
選択可能には、前記カメラは、具体的には車両の周囲の画像を撮影するように構成され、前記産業用コンピュータは、具体的には、車載された少なくとも2つのカメラによってそれぞれ車両の周辺環境を撮影した後に収集された画像を取得し、各前記画像に対して障害物の識別及び追跡を実行して、前記障害物追跡結果を取得するように構成される。
選択可能には、前記カメラは、具体的には、車両の周囲の画像を撮影し、撮影された画像に基づいて障害物の識別及び追跡を実行するとともに前記障害物にローカル識別子を設定するように構成され、前記産業用コンピュータは、具体的には、車載された少なくとも2つのカメラによって送信された障害物追跡結果を取得するように構成される。
第5の態様では、本出願の実施例は、コンピュータ命令が記憶されている非一時的コンピュータ可読記憶媒体であって、前記コンピュータ命令が前記コンピュータに本出願のいずれかの実施例に記載のクロスカメラ障害物追跡方法を実行させる非一時的コンピュータ可読記憶媒体を開示する。
第6の態様では、本出願の実施例は、コンピュータプログラムであって、前記コンピュータプログラムが実行される場合、前記コンピュータに本出願のいずれかの実施例に記載のクロスカメラ障害物追跡方法を実行させるコンピュータプログラムを開示する。
上記の出願の1つの実施例は、次の利点又は有益な効果を有する。産業用コンピュータにより障害物追跡結果を取得し、さらに障害物のローカル識別子とグローバル識別子とのマッピング関係に基づいて、障害物の類似度を決定し、類似度に基づいて最終的に障害物追跡結果を決定し、複数のカメラによる障害物の融合処理により、障害物への追跡の精度を向上させることができる。
上記の選択可能な方式が有している他の効果は、具体的な実施例と併せて以下に説明される。
図面は、本解決策をよりよく理解するために使用され、本出願を限定するものではない。
本出願の実施例1に係るクロスカメラ障害物追跡方法の概略フローチャートである。 本出願の実施例2に係るクロスカメラ障害物追跡方法の概略フローチャートである。 本出願の実施例2に係る障害物融合プロセスの概略ブロック図である。 本出願の実施例3に係るクロスカメラ障害物追跡装置の概略ブロック図である。 本出願の実施例に係るクロスカメラ障害物追跡方法を実現するための電子機器のブロック図である。
以下に、図面を参照して本出願の例示的な実施例を説明し、理解を容易にするために、その中には本出願の実施例の様々な詳細を含んでおり、それらは単なる例示するものと見なされるべきである。したがって、当業者は、本出願の範囲及び趣旨から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができることを理解すべきである。同様に、明確及び簡潔するために、以下の説明では、周知の機能及び構成の説明を省略する。
本出願の実施例は、無人運転システムのプロセッサの機能が制限されるため、大量の画像情報がタイムリーに処理されなくて失われ、それによって全体的な追跡効果に影響を与える状況に適用する。
実施例1
図1は、本出願の実施例1に係るクロスカメラ障害物追跡方法の概略フローチャートである。本実施例は、自動運転車両がカメラによって撮影された障害物を識別及び追跡する場合に使用され、この方法は、クロスカメラ障害物追跡装置によって実行されてもよく、当該装置がソフトウェア及び/又はハードウェアで実現されてもよく、かつ電子機器に統合されてもよく、当該電子機器が車両に統合された自動運転制御装置であってもよい。図1に示すように、本実施例に係るクロスカメラ障害物追跡方法は、以下のステップS110〜ステップ140を含むことができる。
S110において、少なくとも2つのカメラのそれぞれによって撮影された画像の障害物追跡結果を取得し、前記障害物追跡結果は、カメラによって撮影された画像内の少なくとも1つの障害物を識別及び追跡した結果を含み、少なくとも1つの追跡された障害物にローカル識別子が設定される。
この実施例のカメラは、車両に搭載され、車両は、無人車両であってもよいし、自動運転車両であってもよい。車両が様々な方向の障害物を識別するために、車両の異なる位置にカメラを取り付けることができ、例として、カメラは、車両の前方、車両の左側、車両の右側及び車両の後方に取り付けられてもよい。車両の異なる位置に取り付けられたこれらのカメラは、その自体によって設定された頻度で画像を収集することができる。
具体的には、障害物追跡結果は、車両に搭載されたカメラから取得されてもよいし、車両の産業用コンピュータから取得されてもよい。
本実施例では、ローカル識別子とは、単一のカメラ又は産業用コンピュータが取得した画像の障害物を区別するためのマークである。ローカル識別子が単一のカメラによって設定される場合、具体的なプロセスは、単一のカメラが、撮影した画像内で少なくとも1つの障害物を識別し、この障害物の一意の識別子、即ちローカル識別子を障害物に割り当てることである。当該カメラが後続のフレーム画像を撮影し続ける場合、当該障害物が依然として画像に表示されると、カメラの制御プログラムは、前後のフレーム画像に表示される障害物をマッチングして、同じ障害物に属する画像を見つけ、それによって同じローカル識別子に属する障害物の異なる画像を取得することができ、これは、障害物追跡と呼ばれてもよい。例として、Local_Track_IDをローカル識別子として区別して命名し、具体的には、異なるIDで異なる障害物を区別することができる。
選択可能には、前記方法の実行主体が産業用コンピュータであり、少なくとも2つのカメラのそれぞれによって撮影された画像の障害物追跡結果を取得するステップは、車載された少なくとも2つのカメラによってそれぞれ車両の周辺環境を撮影した後に収集された画像を取得するステップと、各前記画像に対して障害物の識別及び追跡を実行して、前記障害物の追跡結果を取得するステップと、を含む。
本実施例では、ローカル識別子が産業用コンピュータによって設定される場合、具体的なプロセスは、単一のカメラが画像を撮影した後、画像を産業用コンピュータに送信し、産業用コンピュータが、障害物を容易に追跡するように、当該画像内の障害物にローカル識別子を割り当てることである。
選択可能には、前記方法の実行主体が産業用コンピュータであり、少なくとも2つのカメラのそれぞれによって撮影された画像の障害物追跡結果を取得するステップは、車載された少なくとも2つのカメラによって送信された障害物追跡結果を取得し、前記障害物追跡結果が、カメラが撮影した画像に基づいて障害物の識別及び追跡を実行するとともにローカル識別子を設定することで取得されるステップを含む。
本実施例では、カメラが障害物を識別及び追跡する場合、単一のカメラが画像を取得した後、現在のフレーム画像内の障害物識別結果を、当該カメラによって識別された履歴フレーム画像内の障害物と比較することにより、識別された障害物を追跡し、それに1つのローカル識別子を割り当てる。異なる位置にあるカメラによる障害物の識別及び追跡は、非同期であってもよく、具体的な識別速度は、画像内の障害物の数、障害物の外形の複雑さ及び当該障害物を処理するための計算能力に関連付けられている。
具体的には、単一のカメラは、障害物の識別中に信頼度を取得し、信頼度が通常、障害物識別アルゴリズムによって自動的に決定されてもよく、主に当該障害物の識別結果が正しい確率を反映する。信頼度が閾値よりも大きい場合、それは有効な障害物と見なされる。有効な障害物は、単一のカメラで追跡され、さらに、各カメラの有効な障害物の信頼度は、異なってもよい。
S120において、各前記カメラのうちのメインカメラによるクロスカメラ障害物融合のトリガー条件が満たされる場合、各カメラの障害物追跡結果に基づいて、各カメラ内の障害物のローカル識別子とグローバル識別子とのマッピング関係を確立する。
本実施例では、メインカメラは、車両内で比較的重要で優先順位が高いカメラである。例えば、当該メインカメラの撮影範囲が運転制御にとって最も重要であるか、又はメインカメラのハードウェアパフォーマンスが最も高い。
メインカメラが障害物の融合をトリガーすることにより、当該メインカメラが融合する必要のある全ての障害物追跡結果をタイムリーに融合できることを確保することができる。メインカメラ以外のカメラの場合、異なるカメラが画像を取得する頻度が異なるため、一部のカメラク内の1フレーム又は複数のフレームの画像は、タイムリーに融合されず、フレームが失われる可能性がある。
障害物の融合とは、異なるカメラで追跡された障害物を関連付けることであり、異なるカメラで追跡された障害物がローカル識別子でマークされるため、異なるカメラで撮影された同じ障害物が異なるローカル識別子でマークされる可能性がある。障害物識別結果がローカル識別子のマークで後続の自動運転制御決定モジュールに送信されると、同じ障害物が誤って2つの障害物として扱われて、運転制御エラーが発生することになる。したがって、より正確な運転制御ポリシーを得るために、異なるカメラで追跡された障害物を関連付けてから、追跡結果を後続の決定モジュールに送信する必要がある。
障害物を融合する場合、主に有効な障害物を融合し、有効な障害物の識別プロセスは、上述したプロセスを参照することができる。本実施例では、障害物の融合がメインカメラによってトリガーされた後、各カメラは、融合するとともに有効な障害物であるか否かを判断することでき、有効な障害物の場合、クロスカメラ融合を実行し、有効な障害物でない場合、当該障害物を廃棄する。
選択可能には、各前記カメラのうちのメインカメラによるクロスカメラ障害物融合のトリガー条件が満たされるステップは、前記メインカメラの現在の画像の障害物識別及び追跡の完了が監視された後、メインカメラの障害物追跡結果が取得された場合、前記トリガー条件が満たされると決定するステップを含み、前記メインカメラは、設定されたカメラであり、又は車両運転中の注目領域に応じて決定される。
本実施例では、メインカメラは、設定されたカメラであってもよく、例として、車両の前側にあるカメラは、メインカメラとして設定され、当該車両の前方の道路状況は、車両の運転にとって最も重要であるとデフォルトされる。メインカメラは、さらに車両運転中の注目領域に応じて決定されてもよく、具体的には、注目領域とは、車両が運転中に注目を集める領域を指し、例として、車両が直線道路を走行している場合、当該車両の注目領域は、前方の走行道路区間であり、当該車両のメインカメラは、車両の前側に取り付けられたカメラである。当該車両が左に曲がると、当該車両の注目領域は、左側の道路区間になり、メインカメラは、車両の左側のカメラに変更される。
本実施例では、障害物追跡結果とは、障害物を追跡した後に得られたデータ結果を指し、障害物の画像、障害物の輪郭、画像内の障害物の位置などの様々な特徴データを含む。グローバル識別子は、当該車両の制御システムで使用される一意の識別子であり、車両のすべてのカメラで追跡されたすべての障害物を一意に区別することができる。例として、Global_Track_IDで命名して区別する。障害物追跡結果が取得された後、障害物追跡結果のローカル識別とグローバル識別とのマッピング関係を確立する。
選択可能には、各カメラの障害物追跡結果に基づいて、各カメラ内の障害物のローカル識別子とグローバル識別子とのマッピング関係を確立するステップは、各カメラの現在の画像の障害物追跡結果が履歴画像にローカル識別子を有することが識別された場合、現在の画像の障害物追跡結果を、既存のローカル識別子に対応するグロバール識別子に関連付けるステップと、各カメラの現在の画像の障害物追跡結果が履歴画像にローカル識別子を有さないことが識別された場合、新しく設定されたローカル識別子を新しく作成されたグロバール識別子にマッピングするステップと、を含む。
本実施例では、各カメラが、現在の画像内の障害物が履歴画像には対応するローカル識別子を有することを識別した場合、当該障害物がカメラによって識別されたことを示し、したがって、当該障害物の追跡結果は、当該障害物に対応するグローバル識別子に対応付けられる。
各カメラで識別された現在の画像内の障害物が履歴画像には対応するローカル識別子を有さない場合、当該障害物が新しく出現したものであることを表し、当該障害物にローカル識別子を設定し、新しいローカル識別子を作成してマッピングする。
S130において、各カメラの障害物追跡結果に基づいて障害物の類似度を決定し、類似度に基づいて同じ障害物のグローバル識別子融合を実行する。
本実施例では、障害物追跡結果内の障害物に対して2つずつで類似度を比較して、類似度が要件を満たす異なるローカル識別子の障害物を同じ障害物と見なして、同じグローバル識別子に関連付けることができる。
S140において、前記グローバル識別子でマークされた障害物追跡結果を取得する。
本実施例では、同じグローバル識別子に対応する障害物の追跡結果をまとめると、同じグローバル識別子でマークされた障害物を処理することにより、同じ障害物を追跡する目的を達成することができる。障害物追跡結果は、障害物の位置、障害物の移動軌跡、障害物の移動軌跡の予測値及び障害物の外形などを含む。
上記の出願の1つの実施例は、次の利点又は有益な効果を有する。産業用コンピュータにより障害物追跡結果を取得し、さらに障害物のローカル識別子とグローバル識別子とのマッピング関係に基づいて障害物の類似度を決定し、類似度に基づいて障害物追跡結果を最終的に決定し、複数のカメラによる障害物の融合処理により、障害物追跡の精度を向上させることができる。本実施例では、メインカメラは、クロスカメラ障害物を融合させることにより、主要な障害物追跡結果が失われないことを確保することができる。
実施例2
図2は、本出願の実施例2に係るクロスカメラ障害物追跡方法の概略フローチャートである。本実施例は、自動運転車両が撮影された画像内の障害物を識別及び追跡する場合に使用され、この方法は、クロスカメラ障害物追跡装置によって実行されてもよく、当該装置がソフトウェア及び/又はハードウェアで実現されてもよく、かつ電子機器に統合されてもよい。
図3は、障害物融合プロセスの概略ブロック図である。図には少なくとも2つのカメラ識別モジュール301、少なくとも2つのカメラ追跡モジュール302、クロスカメラ障害物融合モジュール303、関連一致性検出サブモジュール3031、類似度算出サブモジュール3032、条件付き制約フィルタリングサブモジュール3033、及び障害物融合モジュール304が含まれる。カメラにチップが配置されている場合、障害物の識別及び追跡を独立して処理することができ、少なくとも2つのカメラ識別モジュール301、少なくとも2つのカメラ追跡モジュール302は、カメラに配置され、クロスカメラ障害物融合モジュール303、関連一致性検出サブモジュール3031、類似度算出サブモジュール3032、条件付き制約フィルタリングサブモジュール3033、及び障害物融合モジュール304は、産業用コンピュータに配置され、カメラにチップが配置されていない場合、カメラは、上記のモジュールを有さず、撮影機能のみを備える。本出願ではカメラに配置されたチップは、カメラに統合されてもよいし、障害物の識別及び追跡の関連機能を処理するためにカメラの外部に配置されてカメラに接続されてもよい。障害物融合モジュール304は、結果を車載自動制御システムの運転決定モジュールに出力する。少なくとも2つのカメラ識別モジュール301は、単一のカメラで障害物を識別するように構成され、少なくとも2つのカメラ追跡モジュール302は、識別された障害物を単一のカメラで識別し、追跡結果をクロスカメラ障害物融合モジュール303に出力するように構成される。クロスカメラ障害物融合モジュール303は、追跡結果に対して関連一致性の検出、類似度算出などの処理を実行し、障害物融合モジュール304により障害物に対して最終的な融合処理を実行する。
さらに、図示されるカメラ0〜カメラ9がホットスワップできるため、単一のカメラモジュールの交換が容易になり、それに接続されている車載自動制御システムの運転決定モジュールに対して、障害物追跡プロセスのアーキテクチャモジュールの変化に注目する必要がなく、走行ポリシーを独立して実行することができる。
具体的には、図2に示すように、本実施例に係るクロスカメラ障害物追跡方法は、以下のステップS210〜ステップ260を含むことができる。
S210において、少なくとも2つのカメラのそれぞれによって撮影された画像の障害物追跡結果を取得し、前記障害物追跡結果は、カメラによって撮影された画像内の少なくとも1つの障害物を識別及び追跡した結果を含み、少なくとも1つの追跡された障害物にローカル識別子が設定される。
S220において、各前記カメラのうちのメインカメラによるクロスカメラ障害物融合のトリガー条件が満たされる場合、各カメラの障害物追跡結果に基づいて、各カメラ内の障害物のローカル識別子とグローバル識別子とのマッピング関係を確立する。
S230において、各グローバル識別子に対応する2つの前記障害物に対して関連一致性の検出を実行し、異なる障害物であると決定された場合、異なる障害物の追跡結果を異なるグローバル識別子に対応するように分割する。
本実施例では、関連一致性検出とは、同じグローバル識別子に対応する2つ又は複数の障害物が同じグローバル識別子であるか否かを検出することを指し、同じグローバル識別子に対応する2つの障害物を比較することにより、同じである場合、比較される2つの障害物が同じ障害物であることを示し、同じではない場合、比較される2つの障害物が異なる障害物であることを示し、当該グローバル識別子で様々な障害物として識別された障害物の追跡結果を、異なるグローバル識別子に分割する。
選択可能には、各グローバル識別子に対応する2つの障害物に対して関連一致性の検出を実行するステップは、各グローバル識別子に対応する2つの前記障害物について、各カメラの障害物の追跡結果に基づいて、位置の一致性、輪郭の一致性及び体積の一致性の少なくとも1つを識別して、関連一致性の検出結果を決定するステップを含む。
本実施例では、位置の一致性とは、各カメラが各障害物に対して障害物追跡結果を持っていることを意味し、即ち、各カメラは、障害物の位置を知ることができる。複数のフレームの画像に障害物が連続して表示されている場合、複数のフレームの画像によって当該障害物の移動方向及び移動速度を判断することができ、移動方向と移動速度の偏差が大きいと、異なる障害物であることを示す。
具体的には、異なるカメラ内の2つの障害物の位置が一致しているか否かについて、それらが同じ障害物であるか否かを判断し、例として、障害物Aと障害物Bとの関連一致性を検出し、障害物Aが前方のカメラの左側位置にあり、障害物Bが左側のカメラの右側位置にあると、障害物Aと障害物Bが同じ障害物である可能性があると判断することができる。障害物Aが前方のカメラの左側位置にあり、障害物Bが右側のカメラの右側位置にあると、障害物Aと障害物Bが異なる障害物であることを示す。さらに、障害物Aと障害物Bの輪郭が一致している場合、障害物Aと障害物Bは、同じ障害物であると判断され、障害物Aの輪郭が円形であり、障害物Bの輪郭が長方形である場合、障害物Aと障害物Bは、異なる障害物であると判断される。
2つの障害物に対して関連一致性の検出を実行する場合、障害物の体積によって決定することができる。具体的には、障害物は、画像内で最小の外接矩形フレーム即ち2dフレームでマークされてもよく、2dフレームの高さ比によって検出され、同じ障害物の2つのカメラ内における結像の高さ比がほぼその焦点距離比に等しい。対応する高さ比の差が大きいと、関連一致性の検出が実行される2つの障害物が同じ障害物ではないことを示す。
本実施例では、位置の一致性、輪郭の一致性又は体積の一致性によって2つの障害物の関連一致性の検出を実行することができ、上記の3つの方式を組み合わせて2つの障害物の関連一致性の検出を実行することもできる。
S240において、カメラの取り付け位置及び/又はカメラの撮影エリアに従って、オーバーラップエリアにある障害物追跡結果を決定し、対応するグローバル識別子を1つの関連セットに分割する。
本実施例では、前記関連セットは、障害物の類似度を決定するための範囲として使用される。例として、車両の前方のカメラと車両の左側のカメラの撮影エリアがオーバーラップし、上記のオーバーラップエリアでの障害物追跡結果は、1つの関連セットに分割され、これは、車両の前方のカメラと車両の前方の左側のカメラのオーバーラップエリアにある障害物が同じ障害物である可能性が高いためであり、それらを同一の関連セットに分割し、次に関連セット内の障害物に対して類似度を比較し、この方式により、障害物の比較回数を減らすことができる。
具体的に実現する場合、車両へのカメラの取り付け位置に基づいて、カメラで撮影されたいくつかの障害物は、1つの関連セットに分割されるように予め設定される。各カメラで撮影された障害物は、複数の異なる関連セットに分割されてもよい。選択可能には、カメラの取り付け位置及び撮影エリアを組み合わせて、オーバーラップエリアを決定し、オーバーラップエリアに表示される障害物追跡結果を1つの関連セットに分割することもできる。
S205において、各カメラで処理された障害物追跡結果に基づいて、障害物の類似度を決定し、類似度に基づいて同じ障害物のグローバル識別子融合を実行する。
選択可能には、各カメラの障害物追跡結果に基づいて障害物の類似度を決定し、類似度に基づいて同じ障害物のグローバル識別子融合を実行するステップは、各カメラの障害物追跡結果に基づいて、異なるグローバル識別子に対応する障害物追跡結果に対して2つ1組で位置情報及び/又は輪郭体積情報の類似度計算を実行し、類似度行列を算出するステップと、前記類似度行列に基づいて同じ障害物のマッチングを実行し、マッチング結果に基づいて同じ障害物に属するグローバル識別子を決定するステップと、同じ障害物のグローバル識別子を併合して融合するステップと、を含む。
本実施例では、類似度行列は、異なるグローバル識別子に対応する障害物の類似度を判断するために使用され、類似度行列は、幾何学的輪郭によって算出されてもよいし、位置特徴によって算出されてもよい。類似度行列が閾値よりも高い場合、異なるグローバル識別子に対応する障害物が同じ障害物であることを示し、それらを同じグローバル識別子に対応する障害物に分割し、同じ障害物を融合する。
選択可能には、類似度行列を算出するステップの前に、異なるグローバル識別子に対応する障害物追跡結果に対して条件付き制約フィルタリングを行うステップであって、フィルタリングを制約するための条件は、距離制約、車両の中心に接続された光線の方向角差制約、及びエピポーラ幾何学的制約の少なくとも1つを含むステップをさらに含む。
本実施例では、距離制約は、画像内の障害物の距離の差によって同じ障害物であるか否かを判断することを指し、例示的なグローバル識別子に対応する障害物が画像内で車両から100メートル離れた位置に表示されているが、別のグローバル識別子に対応する障害物が画像内で車両から1000メートル離れる位置に表示されているため、この2つの障害物は、同じ障害物に対応していないと判断されてもよい。
車両の中心に接続された光線の方向角差制約とは、障害物と車両の中心軸との角度を指し、角度差が大きいと、障害物が異なる障害物であることを示す。
エピポーラ幾何学的制約は、2つのカメラ位置によって生成された2つの画像間の特殊な幾何学的関係を指す。
S260において、前記グローバル識別子でマークされた障害物追跡結果を取得する。
選択可能には、前記グローバル識別子でマークされた障害物追跡結果を取得するステップは、前記グローバル識別子でマッピングされた1つ又は複数のローカル識別子に対応する障害物追跡結果を取得するステップと、各前記障害物追跡結果に対してルックアラウンド状態処理を実行して、前記グローバル識別子に対応する障害物の最終追跡結果を決定するステップであって、前記最終追跡結果が車載自動制御システムの運転決定モジュールに送信されるステップと、を含む。
本実施例では、グローバル識別子とのマッピング関係を持っているローカル識別子に対応する障害物追跡結果に対して、ルックアラウンド状態処理を実行し、ルックアラウンド状態が、ローカル識別子に対応する障害物の画像を3次元合成し、仮想トップビューの形で車両の画面上に表示したり、画像画面を形成して対応する障害物の最終的な追跡結果を得ることを指すことができる。仮想トップビュー内の視角又は最終的に形成された画像画面は、車両の走行奇跡に基づいて動的に移動し、車両の周囲の360度の画面を提供できる。最終的に異なるカメラ内の同じ障害物の画像を表示し、最終的な追跡結果を車載自動制御システムに送信することができ、車載自動制御システムは、上記の結果を受信した後、障害物を回避するか、駐車するかなどの次のどのように走行するかを車両に指示することができる。
上記の出願の1つの実施例は、次の利点又は有益な効果を有している:障害物に対して関連一致性の検出及び異なる関連セットへの分割を実行することで、同じ障害物を融合し、最終的な追跡結果を車載自動制御システムの運転決定モジュールに送信し、関連一致性の検出及び異なる関連セットへの分割により、同じ障害物を正確に融合することができ、これにより、車載自動制御システは、障害物を正確に追跡することが可能なる。
実施例3
図4は本出願の実施例3に係るクロスカメラ障害物追跡装置の概略ブロック図である。クロスカメラ障害物追跡装置は、本出願の実施例に係るクロスカメラ障害物追跡方法を実行することができ、方法の実行に対応する機能モジュールと有益な効果を備える。図4に示すように、当該装置400は、少なくとも2つのカメラのそれぞれによって撮影された画像の障害物追跡結果を取得するように構成される追跡結果取得モジュール401であって、前記障害物追跡結果は、カメラによって撮影された画像内の少なくとも1つの障害物を識別及び追跡した結果を含み、少なくとも1つの追跡された障害物にローカル識別子が設定される追跡結果取得モジュール401と、各前記カメラのうちのメインカメラによるクロスカメラ障害物融合のトリガー条件が満たされる場合、各カメラの障害物追跡結果に基づいて、各カメラ内の障害物のローカル識別子とグローバル識別子とのマッピング関係を確立するように構成されるマッピング関係確立モジュール402と、各カメラで処理された障害物追跡結果に基づいて、障害物の類似度を決定し、類似度に基づいて同じ障害物のグローバル識別子融合を実行するように構成されるグローバル識別子融合モジュール403と、前記グローバル識別子でマークされた障害物追跡結果を取得するように構成される追跡結果取得モジュール404と、を含む。
前記マッピング関係確立モジュール402は、具体的には、前記メインカメラの現在の画像の障害物識別及び追跡の完了が監視された後、メインカメラの障害物追跡結果が取得された場合、前記トリガー条件が満たされると決定するように構成され、前記メインカメラは、設定されたカメラであり、又は車両運転中の注目領域に応じて決定される。
前記装置は、カメラの取り付け位置及び/又はカメラの撮影エリアに従って、オーバーラップエリアにある障害物追跡結果を決定し、対応するグローバル識別子を1つの関連セットに分割するように構成されるグローバル識別子分割モジュール405であって、前記関連セットが障害物の類似度を決定するための範囲として使用されるグローバル識別子分割モジュール405をさらに含む。
前記追跡結果取得モジュール404は、具体的には、前記グローバル識別子でマッピングされた1つ又は複数のローカル識別子に対応する障害物追跡結果を取得し、各前記障害物追跡結果に対してルックアラウンド状態処理を実行して、前記グローバル識別子に対応する障害物の最終追跡結果を決定するように構成され、前記最終追跡結果は、車載自動制御システムの運転決定モジュールに送信される。
前記マッピング関係確立モジュール402は、具体的には、各カメラの現在の画像の障害物追跡結果が履歴画像にローカル識別子を有することが識別された場合、現在の画像の障害物追跡結果を既存のローカル識別子に対応するグロバール識別子に関連付け、各カメラの現在の画像の障害物追跡結果が履歴画像にローカル識別子を有さないことが識別された場合、新しく設定されたローカル識別子を新しく作成されたグロバール識別子にマッピングするように構成される。
前記装置は、各グローバル識別子に対応する2つの前記障害物に対して関連一致性の検出を実行するように構成される関連一致性検出モジュール406と、異なる障害物であると決定された場合、異なる障害物の追跡結果を異なるグローバル識別子に対応するように分割するように構成される追跡結果分割モジュール407と、をさらに含む。
前記関連一致性検出モジュール406は、具体的には、各グローバル識別子に対応する2つの前記障害物について、各カメラの障害物の追跡結果に基づいて、位置の一致性、輪郭の一致性及び体積の一致性の少なくとも1つを識別して、関連一致性の検出結果を決定するように構成される。
前記グローバル識別融合モジュール403は、具体的には、各カメラで処理された障害物追跡結果に基づいて、異なるグローバル識別子に対応する障害物追跡結果に対して2つ1組で位置情報及び/又は輪郭体積情報の類似度計算を実行し、類似度行列を算出し、前記類似度行列に基づいて同じ障害物のマッチングを実行し、マッチング結果に基づいて同じ障害物に属するグローバル識別子を決定し、同じ障害物のグローバル識別子を併合して融合するように構成される。
前記装置は、異なるグローバル識別子に対応する障害物追跡結果に対して条件付き制約フィルタリングを行うように構成される条件付き制約フィルタリングモジュール408であって、フィルタリングを制約するための条件は、距離制約、車両の中心に接続された光線の方向角差制約、及びエピポーラ幾何学的制約の少なくとも1つを含む条件付き制約フィルタリングモジュール408をさらに含む。
上記の出願の1つの実施例は、次の利点又は有益な効果を有している:産業用コンピュータにより障害物追跡結果を取得し、さらに障害物のローカル識別子とグローバル識別子とのマッピング関係に基づいて、障害物の類似度を決定し、類似度に基づいて最終的に障害物追跡結果を決定し、複数のカメラによる障害物の融合処理により、障害物への追跡の精度を向上させることができる。
本出願の実施例によれば、本出願は、電子機器と可読記憶媒体とをさらに提供する。
図5に示すように、それは、本出願の実施例に係るクロスカメラ障害物追跡方法を実現するための電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバー、ブレードサーバー、大型コンピューター及び他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを図る。電子機器は、さらにパーソナルデジタル処理、セルラー電話、スマートフォン、ウェアラブルデバイス及び他の類似するコンピューティングデバイスなどの様々な形態の移動装置を表すこともできる。本明細書に示されているコンポーネント、それらの接続と関係、及びそれらの機能は、例だけであり、かつ本明細書での説明及び/又は要求される本出願の実現を制限することを意図するものではない。
図5に示すように、当該電子機器は、1つ又は複数のプロセッサ501と、メモリ502と、高速インターフェース及び低速インターフェースを含む、各コンポーネントを接続するためのインタフェースとを含む。各コンポーネントは、異なるバスで相互に接続され、かつ共通のマザーボードに取り付けられてもよいか、又は必要に応じて他の方式で取り付けられてもよい。プロセッサは、外部入力/出力装置(インタフェースに結合された表示装置など)にGUIのグラフィック情報を表示するためにメモリ内又はメモリ上に記憶される命令を含む、電子機器内に実行される命令を処理することができる。他の実施形態では、必要の場合、複数のプロセッサ及び/又は複数のバスを複数のメモリと複数のメモリとともに使用することができる。同様に、複数の電子機器を接続することができ、各装置は、部分の必要な操作(例えば、サーバーアレイ、1つのブレードサーバーグループ、又はマルチプロセッサシステムとする)を提供することができる。図5では、一つのプロセッサ501は、例として挙げられる。
メモリ502は、本出願に係る非一時的コンピュータ可読記憶媒体である。前記メモリには少なくとも1つのプロセッサで実行可能な命令が記憶され、これにより、前記少なくとも1つのプロセッサは、本出願に係るクロスカメラ障害物追跡方法を実行する。本出願の非一時的コンピュータ可読記憶媒体は、コンピュータ命令を記憶し、当該コンピュータ命令がコンピュータに本出願に係るクロスカメラ障害物追跡方法を実行させるために使用される。
メモリ502は、非一時的コンピュータ可読記憶媒体として、非一時的ソフトウェアプログラム、非一時的コンピュータ実行可能プログラム、及び本出願の実施例におけるクロスカメラ障害物追跡方法に対応するプログラム命令/モジュール(例えば、図4に示すモジュール)を記憶するように構成されてもよい。プロセッサ501は、メモリ502に記憶されている非一時的ソフトウェアプログラム、命令及びモジュールを実行することにより、サーバーの様々な機能アプリケーション及びデータ処理を実行し、即ち上記の方法の実施例におけるクロスカメラ障害物追跡方法を実現する。
メモリ502は、プログラム記憶領域とデータ記憶領域とを含むことができ、プログラム記憶領域は、オペレーティングシステム、少なくとも一つの機能に必要なアプリケーションプログラムを記憶することができ、データ記憶領域は、クロスカメラ障害物追跡方法を実現するための電子機器の使用に応じて作成されたデータなどを記憶することができる。また、メモリ502は、高速ランダムアクセスメモリを含むことができ、非一時的メモリ、例えば少なくとも一つの磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の非一時的ソリッドステートストレージデバイスをさらに含むことができる。いくつかの実施例では、メモリ502は、プロセッサ501に対して遠隔に設けられたメモリを含むことができ、これらの遠隔メモリは、ネットワークを介してクロスカメラ障害物追跡方法を実現するための電子機器に接続されてもよい。上記ネットワークの実施例は、インターネット、イントラネット、ローカルエリアネットワーク、移動通信ネットワーク及びそれらの組み合わせを含むがこれらに限定されない。
クロスカメラ障害物追跡方法を実現するための電子機器は、入力装置503と出力装置504とをさらに含むことができる。プロセッサ501、メモリ502、入力装置503と出力装置504は、バス又は他の方式で接続されてもよく、図5ではバスで接続されることは例として挙げられる。
入力装置503は、入力された数字又は文字情報を受信し、クロスカメラ障害物追跡方法を実現するための電子機器のユーザ設定及び機能制御に関するキー信号入力を生成することができ、例えばタッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、インジケータースティック、一つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置である。出力装置504は、表示装置、補助照明装置(例えば、LED)及び触覚フィードバック装置(例えば、振動モータ)などを含むことができる。当該表示装置は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイとプラズマディスプレイを含むことができるがこれらに限定されない。いくつかの実施形態では、表示装置は、タッチスクリーンであってもよい。
本明細書で説明されるシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向けASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現されてもよい。これらの様々な実施形態は、一つ又は複数のコンピュータプログラムで実施されることを含むことができ、当該一つ又は複数のコンピュータプログラムは、少なくとも一つのプログラマブルプロセッサを含むプログラマブルシステムで実行及び/又は解釈されてもよく、当該プログラマブルプロセッサは、特定用途向け又は汎用プログラマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、かつデータ及び命令を当該記憶システム、当該少なくとも一つの入力装置及び当該少なくとも一つの出力装置に送信することができる。
これらのコンピューティングプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれる)は、プログラマブルプロセッサの機械命令を含み、かつ高レベルのプロセス及び/又はオブジェクト向けプログラミング言語、及び/又はアセンブリ/機械言語で実現されてもよい。本明細書で使用されるように、用語「機械可読媒体」及び「コンピュータ可読媒体」は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意のコンピュータプログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指し、機械可読信号である機械命令を受信する機械可読媒体を含む。用語「機械可読信号」は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意の信号を指す。
ユーザとのインタラクションを提供するために、本明細書で説明されるシステム及び技術をコンピュータで実施することができ、当該コンピュータは、情報をユーザに表示するための表示装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置は、ユーザとのインタラクションを提供するように構成されてもよい。例えば、ユーザに提供されるフィードバックは、任意の形態のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、かつ任意の形態(視覚入力、音声入力、又は触覚入力を含む)でユーザからの入力を受信することができる。
本明細書で説明されるシステム及び技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバーとする)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバー)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータであり、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによって本明細書で説明されるシステム及び技術の実施形態とのインタラクションを行うことができる)、又はこのようなバックエンドコンポーネント、ミドルウェアコンポーネント、又はフロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムで実施されてもよい。任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続することができる。通信ネットワークの例としては、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットとを含む。
コンピュータシステムは、クライアントとサーバーとを含むことができる。クライアントとサーバーは、一般的には、互いに離れており、通常、通信ネットワークを介してインタラクションを行う。クライアントとサーバーとの関係は、対応するコンピュータ上で実行されかつ相互にクライアント−サーバー関係を有するコンピュータプログラムによって生成される。
本出願の実施例に係る技術的解決策では、産業用コンピュータにより障害物追跡結果を取得し、さらに障害物のローカル識別子とグローバル識別子とのマッピング関係に基づいて、障害物の類似度を決定し、類似度に基づいて最終的に障害物追跡結果を決定し、複数のカメラによる障害物の融合処理により、障害物追跡の精度を向上させることができる。
実施例4
本出願の第4の実施例に係るクロスカメラ障害物追跡システムは、少なくとも2つの車載カメラを含み、さらに、本実施例に記載の電子機器を含み、前記電子機器が産業用コンピュータである。
選択可能には、前記カメラは、具体的には、車両の周囲の画像を撮影するように構成され、前記産業用コンピュータは、具体的には、車載された少なくとも2つのカメラによってそれぞれ車両の周辺環境を撮影した後に収集された画像を取得し、各前記画像に対して障害物の識別及び追跡を実行して、前記障害物追跡結果を取得するように構成される。
選択可能には、前記カメラは、具体的には、車両の周囲の画像を撮影し、撮影された画像に基づいて障害物の識別及び追跡を実行するとともに前記障害物にローカル識別子を設定するように構成され、前記産業用コンピュータは、具体的には、車載された少なくとも2つのカメラによって送信された障害物追跡結果を取得するように構成される。
上記の様々な形態のフローを使用して、ステップを並べ替え、追加、又は削除することができることを理解すべきである。例えば、本出願に記載されている各ステップは、本出願で開示されている技術的解決策の所望の結果さえ達成すれば、並列に実行されてもよいし、順次実行されてもよいし、異なる順序で実行されてもよいが、本明細書では限定されない。
上記の具体的な実施形態は、本出願の保護範囲を制限するためのものではない。当業者は、設計要件及び他の要因に従って、様々な修正、組み合わせ、サブコンビネーション及び置換を行うことができることを理解すべきである。本出願の精神及び原則の範囲内で行われたいかなる修正、同等の置換と改良などは、いずれも本出願の保護範囲内に含まれるべきである。

Claims (18)

  1. 少なくとも2つのカメラのそれぞれによって撮影された画像の障害物追跡結果を取得するステップであって、前記障害物追跡結果は、カメラによって撮影された画像内の少なくとも1つの障害物を識別及び追跡した結果を含み、少なくとも1つの追跡された障害物にローカル識別子が設定されるステップと、
    各前記カメラのうちのメインカメラによるクロスカメラ障害物融合のトリガー条件が満たされる場合、各カメラの障害物追跡結果に基づいて、各カメラ内の障害物のローカル識別子とグローバル識別子とのマッピング関係を確立するステップと、
    各カメラの障害物追跡結果に基づいて障害物の類似度を決定し、類似度に基づいて同じ障害物のグローバル識別子融合を行うステップと、
    前記グローバル識別子でマークされた障害物追跡結果を取得するステップと、を含む、
    ことを特徴とするクロスカメラ障害物追跡方法。
  2. 各前記カメラのうちのメインカメラによるクロスカメラ障害物融合のトリガー条件が満たされるステップは、
    前記メインカメラの現在の画像の障害物識別及び追跡の完了が監視された後、メインカメラの障害物追跡結果が取得された場合、前記トリガー条件が満たされると決定するステップを含み、
    前記メインカメラは、設定されたカメラであり、又は車両運転中の注目領域に応じて決定される、
    ことを特徴とする請求項1に記載の方法。
  3. 各カメラの障害物追跡結果に基づいて障害物の類似度を決定するステップの前に、
    カメラの取り付け位置及び/又はカメラの撮影エリアに従って、オーバーラップエリアにある障害物追跡結果を決定し、対応するグローバル識別子を1つの関連セットに分割するステップをさらに含み、
    前記関連セットは、障害物の類似度を決定するための範囲として使用される、
    ことを特徴とする請求項1に記載の方法。
  4. 前記グローバル識別子でマークされた障害物追跡結果を取得するステップは、
    前記グローバル識別子でマッピングされた1つ又は複数のローカル識別子に対応する障害物追跡結果を取得するステップと、
    各前記障害物追跡結果に対してルックアラウンド状態処理を実行して、前記グローバル識別子に対応する障害物の最終追跡結果を決定するステップと、を含み、
    前記最終追跡結果は、車載自動制御システムの運転決定モジュールに送信される、
    ことを特徴とする請求項1に記載の方法。
  5. 各カメラの障害物追跡結果に基づいて、各カメラ内の障害物のローカル識別子とグローバル識別子とのマッピング関係を確立するステップは、
    各カメラの現在の画像の障害物追跡結果が履歴画像にローカル識別子を有することが識別された場合、現在の画像の障害物追跡結果を既存のローカル識別子に対応するグロバール識別子に関連付けるステップと、
    各カメラの現在の画像の障害物追跡結果が履歴画像にローカル識別子を有さないことが識別された場合、新しく設定されたローカル識別子を新しく作成されたグロバール識別子にマッピングするステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  6. 各カメラの障害物追跡結果に基づいて、各カメラ内の障害物のローカル識別子とグローバル識別子とのマッピング関係を確立するステップの後に、
    各グローバル識別子に対応する2つの前記障害物に対して関連一致性の検出を実行するステップと、
    異なる障害物であると決定された場合、異なる障害物の追跡結果を異なるグローバル識別子に対応するように分割するステップと、をさらに含む、
    ことを特徴とする請求項5に記載の方法。
  7. 各グローバル識別子に対応する2つの前記障害物に対して関連一致性の検出を実行するステップは、
    各グローバル識別子に対応する2つの前記障害物について、各カメラの障害物の追跡結果に基づいて、位置の一致性、輪郭の一致性及び体積の一致性の少なくとも1つを識別して、関連一致性の検出結果を決定するステップを含む、
    ことを特徴とする請求項6に記載の方法。
  8. 各カメラの障害物追跡結果に基づいて障害物の類似度を決定し、類似度に基づいて同じ障害物のグローバル識別子融合を実行するステップは、
    各カメラの障害物追跡結果に基づいて、異なるグローバル識別子に対応する障害物追跡結果に対して2つ1組で位置情報及び/又は輪郭体積情報の類似度計算を実行し、類似度行列を算出するステップと、
    前記類似度行列に基づいて同じ障害物のマッチングを実行し、マッチング結果に基づいて同じ障害物に属するグローバル識別子を決定するステップと、
    同じ障害物のグローバル識別子を併合して融合するステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  9. 類似度行列を算出するステップの前に、
    異なるグローバル識別子に対応する障害物追跡結果に対して条件付き制約フィルタリングを行うステップであって、フィルタリングを制約するための条件は、距離制約、車両の中心に接続された光線の方向角差制約、及びエピポーラ幾何学的制約の少なくとも1つを含むステップをさらに含む、
    ことを特徴とする請求項8に記載の方法。
  10. 前記方法の実行主体が産業用コンピュータであり、少なくとも2つのカメラのそれぞれによって撮影された画像の障害物追跡結果を取得するステップは、
    車載された少なくとも2つのカメラによってそれぞれ車両の周辺環境を撮影した後に収集された画像を取得するステップと、
    各前記画像に対して障害物の識別及び追跡を実行して、前記障害物の追跡結果を取得するステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  11. 前記方法の実行主体が産業用コンピュータであり、少なくとも2つのカメラのそれぞれによって撮影された画像の障害物追跡結果を取得するステップは、
    車載された少なくとも2つのカメラによって送信された障害物追跡結果を取得するステップであって、前記障害物追跡結果が、カメラが撮影された画像に基づいて障害物の識別及び追跡を実行するとともにローカル識別子を設定することで取得されるステップを含む、
    ことを特徴とする請求項1に記載の方法。
  12. 少なくとも2つのカメラのそれぞれによって撮影された画像の障害物追跡結果を取得するように構成される追跡結果取得モジュールであって、前記障害物追跡結果は、カメラによって撮影された画像内の少なくとも1つの障害物を識別及び追跡した結果を含み、少なくとも1つの追跡された障害物にローカル識別子が設定される追跡結果取得モジュールと、
    各前記カメラのうちのメインカメラによるクロスカメラ障害物融合のトリガー条件が満たされる場合、各カメラの障害物追跡結果に基づいて、各カメラ内の障害物のローカル識別子とグローバル識別子とのマッピング関係を確立するように構成されるマッピング関係確立モジュールと、
    各カメラの障害物追跡結果に基づいて、障害物の類似度を決定し、類似度に基づいて同じ障害物のグローバル識別子融合を実行するように構成されるグローバル識別子融合モジュールと、
    前記グローバル識別子でマークされた障害物追跡結果を取得するように構成される追跡結果取得モジュールと、を含む、
    ことを特徴とするクロスカメラ障害物追跡装置。
  13. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信可能に接続されたメモリとを含む電子機器であって、
    前記メモリには前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも1つのプロセッサに実行される場合、前記少なくとも1つのプロセッサが請求項1〜9のいずれか一項に記載のクロスカメラ障害物追跡方法を実行可能である、
    ことを特徴とする電子機器。
  14. 少なくとも2つの車載カメラを含み、請求項13に記載の電子機器をさらに含み、前記電子機器が産業用コンピュータである、
    ことを特徴とするクロスカメラ障害物追跡システム。
  15. 前記カメラは、具体的には、車両の周囲の画像を撮影するように構成され、
    前記産業用コンピュータは、具体的には、車載された少なくとも2つのカメラによってそれぞれ車両の周辺環境を撮影した後に収集された画像を取得し、各前記画像に対して障害物の識別及び追跡を実行して、前記障害物追跡結果を取得するように構成される、
    ことを特徴とする請求項14に記載のシステム。
  16. 前記カメラは、具体的には、車両の周囲の画像を撮影し、撮影された画像に基づいて障害物の識別及び追跡を実行するとともに前記障害物にローカル識別子を設定するように構成され、
    前記産業用コンピュータは、具体的には、車載された少なくとも2つのカメラによって送信された障害物追跡結果を取得するように構成される、
    ことを特徴とする請求項14に記載のシステム。
  17. コンピュータ命令が記憶されている非一時的コンピュータ可読記憶媒体であって、前記コンピュータ命令が前記コンピュータに請求項1〜11のいずれか一項に記載のクロスカメラ障害物追跡方法を実行させる、
    ことを特徴とする非一時的コンピュータ可読記憶媒体。
  18. コンピュータプログラムであって、
    前記コンピュータプログラムが実行される場合、前記コンピュータに請求項1〜11のいずれか一項に記載のクロスカメラ障害物追跡方法を実行させる、
    ことを特徴とするコンピュータプログラム。
JP2021001461A 2020-01-07 2021-01-07 クロスカメラ障害物追跡方法、装置、機器、システム及び媒体 Active JP7241783B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010014794.2A CN111242986B (zh) 2020-01-07 2020-01-07 跨相机的障碍物跟踪方法、装置、设备、系统及介质
CN202010014794.2 2020-01-07

Publications (2)

Publication Number Publication Date
JP2021111404A true JP2021111404A (ja) 2021-08-02
JP7241783B2 JP7241783B2 (ja) 2023-03-17

Family

ID=70865304

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021001461A Active JP7241783B2 (ja) 2020-01-07 2021-01-07 クロスカメラ障害物追跡方法、装置、機器、システム及び媒体

Country Status (5)

Country Link
US (2) US11238600B2 (ja)
EP (1) EP3848851A1 (ja)
JP (1) JP7241783B2 (ja)
KR (1) KR102446712B1 (ja)
CN (1) CN111242986B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112508865B (zh) * 2020-11-23 2024-02-02 深圳供电局有限公司 一种无人机巡检避障方法、装置、计算机设备和存储介质
CN112885097B (zh) * 2021-02-07 2023-01-10 云控智行(上海)汽车科技有限公司 一种基于跨点位的路侧融合管理方法及系统
CN116866720B (zh) * 2023-09-04 2023-11-28 国网山东省电力公司东营供电公司 基于声源定位的摄像头角度自适应调控方法、系统及终端

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001088609A (ja) * 1999-09-22 2001-04-03 Fuji Heavy Ind Ltd 車載カメラの電源制御方法ならびに装置
JP2004072628A (ja) * 2002-08-08 2004-03-04 Univ Waseda 複数カメラを用いた移動体追跡システム及びその方法
JP2018061114A (ja) * 2016-10-04 2018-04-12 日本電信電話株式会社 監視装置および監視方法
JP2019114280A (ja) * 2014-09-26 2019-07-11 日本電気株式会社 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体
JP2019185615A (ja) * 2018-04-16 2019-10-24 Kddi株式会社 動線管理装置、動線管理方法及び動線管理プログラム

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7956889B2 (en) * 2003-06-04 2011-06-07 Model Software Corporation Video surveillance system
JP4013872B2 (ja) * 2003-09-26 2007-11-28 日産自動車株式会社 障害物検出装置
JP2005170290A (ja) * 2003-12-12 2005-06-30 Nissan Motor Co Ltd 障害物検出装置
EP1566788A3 (en) * 2004-01-23 2017-11-22 Sony United Kingdom Limited Display
US7929017B2 (en) * 2004-07-28 2011-04-19 Sri International Method and apparatus for stereo, multi-camera tracking and RF and video track fusion
US7623676B2 (en) * 2004-12-21 2009-11-24 Sarnoff Corporation Method and apparatus for tracking objects over a wide area using a network of stereo sensors
CN101277429B (zh) * 2007-03-27 2011-09-07 中国科学院自动化研究所 监控中多路视频信息融合处理与显示的方法和系统
US8321122B2 (en) * 2007-11-28 2012-11-27 The Boeing Company System and method for evidential reasoning for transportation scenarios
US8180107B2 (en) * 2009-02-13 2012-05-15 Sri International Active coordinated tracking for multi-camera systems
KR101395089B1 (ko) * 2010-10-01 2014-05-16 안동대학교 산학협력단 장애물 감지 시스템 및 방법
US8744125B2 (en) * 2011-12-28 2014-06-03 Pelco, Inc. Clustering-based object classification
US9641763B2 (en) * 2012-08-29 2017-05-02 Conduent Business Services, Llc System and method for object tracking and timing across multiple camera views
JP5418661B2 (ja) * 2012-12-07 2014-02-19 三菱自動車工業株式会社 車両周辺監視装置
US9904852B2 (en) * 2013-05-23 2018-02-27 Sri International Real-time object detection, tracking and occlusion reasoning
KR102153581B1 (ko) * 2016-02-26 2020-09-08 한화디펜스 주식회사 주변 영상 모니터링 장치
US10365658B2 (en) * 2016-07-21 2019-07-30 Mobileye Vision Technologies Ltd. Systems and methods for aligning crowdsourced sparse map data
US10248124B2 (en) * 2016-07-21 2019-04-02 Mobileye Vision Technologies, Inc. Localizing vehicle navigation using lane measurements
CN106780601B (zh) * 2016-12-01 2020-03-27 北京未动科技有限公司 一种空间位置追踪方法、装置及智能设备
US10678237B2 (en) * 2016-12-22 2020-06-09 Panasonic Intellectual Property Corporation Of America Information processing apparatus, operated vehicle, information processing method, and recording medium storing program
CN106774335B (zh) * 2017-01-03 2020-01-21 南京航空航天大学 基于多目视觉和惯导的导引装置、地标布局及导引方法
KR101897505B1 (ko) * 2017-01-23 2018-09-12 광주과학기술원 다중 카메라 환경에서의 관심 객체를 실시간으로 추적하기 위한 방법 및 시스템
CN107161141B (zh) * 2017-03-08 2023-05-23 深圳市速腾聚创科技有限公司 无人驾驶汽车系统及汽车
KR102565533B1 (ko) * 2017-06-14 2023-08-10 모빌아이 비젼 테크놀로지스 엘티디. 자율 주행을 위한 항법 정보의 융합 프레임워크 및 배치 정렬
WO2019136479A1 (en) 2018-01-08 2019-07-11 The Regents On The University Of California Surround vehicle tracking and motion prediction
JP6949238B2 (ja) * 2018-02-26 2021-10-13 フェデックス コーポレイト サービシズ,インコーポレイティド マルチセンサ検出の融合を用いたロジスティクスグラウンド支援装置において衝突回避を向上させるためのシステム及び方法
US20190286145A1 (en) * 2018-03-14 2019-09-19 Omron Adept Technologies, Inc. Method and Apparatus for Dynamic Obstacle Avoidance by Mobile Robots
US11501572B2 (en) * 2018-03-26 2022-11-15 Nvidia Corporation Object behavior anomaly detection using neural networks
US10943485B2 (en) * 2018-04-03 2021-03-09 Baidu Usa Llc Perception assistant for autonomous driving vehicles (ADVs)
US10816984B2 (en) * 2018-04-13 2020-10-27 Baidu Usa Llc Automatic data labelling for autonomous driving vehicles
CN108596277B (zh) * 2018-05-10 2020-07-07 腾讯科技(深圳)有限公司 一种车辆身份识别方法、装置和存储介质
CN109163707B (zh) * 2018-09-06 2019-11-26 百度在线网络技术(北京)有限公司 障碍物感知方法、系统、计算机设备、计算机存储介质
CN109165629B (zh) * 2018-09-13 2019-08-23 百度在线网络技术(北京)有限公司 多焦距视觉障碍物感知方法、装置、设备及存储介质
WO2020090285A1 (ja) * 2018-10-31 2020-05-07 日本電気株式会社 通信装置、通信制御方法、及び非一時的なコンピュータ可読媒体
JP6519707B1 (ja) * 2018-11-30 2019-05-29 富士通クライアントコンピューティング株式会社 情報処理装置及びプログラム
CN110443828A (zh) * 2019-07-31 2019-11-12 腾讯科技(深圳)有限公司 对象跟踪方法和装置、存储介质及电子装置
CN110570653B (zh) * 2019-08-09 2021-01-26 新奇点智能科技集团有限公司 一种自动驾驶辅助方法及系统
US11243305B2 (en) * 2019-12-20 2022-02-08 Motorola Solutions, Inc. Method, system and computer program product for intelligent tracking and data transformation between interconnected sensor devices of mixed type
EP3926424A1 (de) * 2020-06-18 2021-12-22 Beckhoff Automation GmbH Verfahren zum betreiben eines planarantriebssystems und planarantriebssystem
US20220383522A1 (en) * 2021-05-26 2022-12-01 Nec Laboratories America, Inc. Semi-automatic data collection and association for multi-camera tracking

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001088609A (ja) * 1999-09-22 2001-04-03 Fuji Heavy Ind Ltd 車載カメラの電源制御方法ならびに装置
JP2004072628A (ja) * 2002-08-08 2004-03-04 Univ Waseda 複数カメラを用いた移動体追跡システム及びその方法
JP2019114280A (ja) * 2014-09-26 2019-07-11 日本電気株式会社 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体
JP2018061114A (ja) * 2016-10-04 2018-04-12 日本電信電話株式会社 監視装置および監視方法
JP2019185615A (ja) * 2018-04-16 2019-10-24 Kddi株式会社 動線管理装置、動線管理方法及び動線管理プログラム

Also Published As

Publication number Publication date
US11769260B2 (en) 2023-09-26
CN111242986A (zh) 2020-06-05
US11238600B2 (en) 2022-02-01
CN111242986B (zh) 2023-11-24
JP7241783B2 (ja) 2023-03-17
KR102446712B1 (ko) 2022-09-23
US20210209772A1 (en) 2021-07-08
US20220101540A1 (en) 2022-03-31
EP3848851A1 (en) 2021-07-14
KR20210089107A (ko) 2021-07-15

Similar Documents

Publication Publication Date Title
JP7241783B2 (ja) クロスカメラ障害物追跡方法、装置、機器、システム及び媒体
JP7262545B2 (ja) 車両位置の判定方法、車両位置の判定装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム
CN111797187B (zh) 地图数据的更新方法、装置、电子设备和存储介质
CN110929702B (zh) 一种轨迹规划方法、装置、电子设备和存储介质
CN111220154A (zh) 车辆定位方法、装置、设备和介质
CN111324115B (zh) 障碍物位置检测融合方法、装置、电子设备和存储介质
JP7178386B2 (ja) 目標追跡方法、装置、電子デバイス、記憶媒体、及びプログラム
CN111611901B (zh) 车辆逆行检测方法、装置、设备以及存储介质
CN111401208A (zh) 一种障碍物检测方法、装置、电子设备及存储介质
KR20210094476A (ko) 위치결정 요소 검출 방법, 장치, 기기 및 매체
CN111292531B (zh) 交通信号灯的跟踪方法、装置、设备及存储介质
CN111753765A (zh) 感知设备的检测方法、装置、设备及存储介质
JP7204823B2 (ja) 車両制御方法、車両制御装置及び車両
CN109859260B (zh) 确定车位位置的方法、装置及计算机可读存储介质
JP2021119507A (ja) 車線の決定方法、車線測位精度の評価方法、車線の決定装置、車線測位精度の評価装置、電子デバイス、コンピュータ可読記憶媒体、及びプログラム
CN112528786A (zh) 车辆跟踪方法、装置及电子设备
CN111652112B (zh) 一种车道流向的识别方法、装置、电子设备及存储介质
CN111523471A (zh) 车辆所在车道的确定方法、装置、设备以及存储介质
CN113008237A (zh) 一种路径规划方法及装置、飞行器
CN113844463A (zh) 基于自动驾驶系统的车辆控制方法、装置及车辆
KR102568948B1 (ko) 장애물 속도를 결정하는 방법, 장치, 전자 기기, 저장 매체 및 프로그램
WO2022062355A1 (zh) 一种融合定位方法及装置
Yang et al. MonoGAE: Roadside monocular 3D object detection with ground-aware embeddings
CN115685224A (zh) 一种激光雷达点云聚类方法、装置、激光雷达及车辆
CN112784637B (zh) 地面障碍物探测方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210107

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211029

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20221117

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20221125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230307

R150 Certificate of patent or registration of utility model

Ref document number: 7241783

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150