JPWO2021092702A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2021092702A5
JPWO2021092702A5 JP2022528354A JP2022528354A JPWO2021092702A5 JP WO2021092702 A5 JPWO2021092702 A5 JP WO2021092702A5 JP 2022528354 A JP2022528354 A JP 2022528354A JP 2022528354 A JP2022528354 A JP 2022528354A JP WO2021092702 A5 JPWO2021092702 A5 JP WO2021092702A5
Authority
JP
Japan
Prior art keywords
sensor
data
scene
lidar
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022528354A
Other languages
English (en)
Other versions
JP2023501812A (ja
Publication date
Application filed filed Critical
Priority claimed from PCT/CA2020/051558 external-priority patent/WO2021092702A1/en
Publication of JP2023501812A publication Critical patent/JP2023501812A/ja
Publication of JPWO2021092702A5 publication Critical patent/JPWO2021092702A5/ja
Pending legal-status Critical Current

Links

Claims (34)

  1. 関心のオブジェクトを包含するシーンを感知する方法であって、
    a.複数のセンサモダリティからのセンサデータを受け取ることであって、各センサモダリティが、前記関心のオブジェクトの少なくとも1つを包含する前記シーンの少なくとも一部分を観察し、前記シーンの一部分及び前記少なくとも1つの関心のオブジェクトに関する情報を伝達するセンサデータを生成する、センサデータを受け取ることと、
    b.前記関心のオブジェクトを検出するとともに複数の一次検出結果を生成するために前記各センサモダリティからのセンサデータを処理することであって、各検出結果がそれぞれのセンサモダリティに関連付けられる、センサデータを処理することと、
    c.前記シーンの融合3Dマップを生成するために第1のセンサモダリティから取得されたセンサデータを第2のセンサモダリティから取得されたセンサデータと融合することと、
    d.前記シーンにおける関心のオブジェクトを検出するとともに二次検出結果を生成するために前記融合3Dマップを処理することと、
    e.前記一次及び前記二次検出結果に対してオブジェクトレベル融合を実行することと、
    を含む、方法。
  2. 前記複数のセンサモダリティは、前記シーンの少なくとも一部分を表す画像データを生成するカメラを含む、
    請求項1に記載の方法。
  3. 前記複数のセンサモダリティは、前記シーンの少なくとも一部分を表すライダーデータを生成するライダーを含む、
    請求項2に記載の方法。
  4. 前記複数のセンサモダリティは、前記シーンの少なくとも一部分を表すレーダーデータを生成するレーダーを含む、
    請求項2に記載の方法。
  5. 前記画像データは、複数の画素を伝達し、前記ライダーデータは、複数の距離測定値を伝達し、前記融合することは、前記ライダーデータからの距離値を前記画像データにおける画素に関連付けることを含む、
    請求項3に記載の方法。
  6. 前記融合することは、前記ライダーデータにおいて前記距離値が利用できない前記画像データにおける第1の画素に対して、前記第1の画素に視覚的に類似する前記画像データにおける第2の画素に対して利用可能な前記ライダーデータにおける距離値に少なくとも部分的に基づいて、距離値を推定することを含む、
    請求項5に記載の方法。
  7. 前記カメラは、前記ライダーよりも高い解像度を有する、
    請求項6に記載の方法。
  8. 前記融合することは、セグメントにおける画素の視覚的類似性に少なくとも部分的に基づいて前記画像データにおけるセグメントを定義することを含む、
    請求項7に記載の方法。
  9. 前記融合することは、類似する色を有する前記シーンの一部分を表す画素を含むように所与のセグメントの境界を定義する、
    請求項8に記載の方法。
  10. 前記融合することは、特定のセグメントにおける画素に関連付けられる前記ライダーデータにおける3又は4以上の距離値を識別し、平面の方程式を用いることによる前記複数の距離値に基づいて、前記ライダーデータにおいて前記距離値が利用できない前記特定のセグメントにおける他の画素の距離値を推定する、
    請求項8に記載の方法。
  11. 前記二次検出結果に基づいて占有グリッドを計算することを含む、
    請求項1に記載の方法。
  12. 前記占有グリッドは、前記関心のオブジェクト、及び前記関心のオブジェクトの相対位置を定義する、
    請求項11に記載の方法。
  13. 前記関心のオブジェクトは、車両を含む、
    請求項12に記載の方法。
  14. 前記占有グリッドは、個々の車両の軌道を識別する、
    請求項13に記載の方法。
  15. 前記占有グリッドは、個々の車両の速度を識別する、
    請求項14に記載の方法。
  16. 前記占有グリッドは、前記車両の周りのフリースペースを定義する、
    請求項15に記載の方法。
  17. 連続データフレームを介して検出されたオブジェクトを追跡することによって3Dスペースにおいて検出されたオブジェクトの動き経路を辿るために前記二次検出結果を処理することを更に含む、
    請求項16に記載の方法。
  18. a.複数のセンサモジュールであって、各センサモジュールが、
    i.前記複数のセンサモジュールのうちのセンサモジュールの別のセンサのモダリティとは異なるそれぞれのモダリティに従って動作するセンサであって、関心のオブジェクトの少なくとも1つを包含するシーンの少なくとも一部分を観察し、前記シーンの一部分及び前記少なくとも1つの関心のオブジェクトに関する情報を伝達するセンサデータを生成するように構成されるセンサと、
    ii.一次検出結果を出力するために前記センサデータを処理する知覚機能ブロックと、
    を含む、複数のセンサモジュールと、
    b.センサ融合モジュールであって、
    i.前記シーンの融合3Dマップを生成するために、第1のセンサモダリティに従って動作する第1のセンサモジュールから取得されたセンサデータを、第2のセンサモダリティに従って動作する第2のセンサモジュールから取得されたセンサデータと融合し、
    ii.前記シーンにおける関心のオブジェクトを検出するとともに二次検出結果を生成するために前記融合3Dマップを処理し、
    iii.前記一次及び前記二次検出結果に対してオブジェクトレベルの融合を実行する、
    ように構成されたセンサ融合モジュールと、
    を備える、システム。
  19. 前記複数のセンサモダリティは、前記シーンの少なくとも一部分を表す画像データを生成するカメラを含む、
    請求項18に記載のシステム。
  20. 前記複数のセンサモダリティは、前記シーンの少なくとも一部分を表すライダーデータを生成するライダーを含む、
    請求項19に記載のシステム。
  21. 前記複数のセンサモダリティは、前記シーンの少なくとも一部分を表すレーダーデータを生成するレーダーを含む、
    請求項19に記載のシステム。
  22. 前記画像データは、複数の画素を伝達し、前記ライダーデータは、複数の距離測定値を伝達し、前記センサ融合モジュールは、前記ライダーデータからの距離値を前記画像データにおける画素に関連付けるように構成される、
    請求項20に記載のシステム。
  23. 前記センサ融合モジュールは、前記ライダーデータにおいて前記距離値が利用できない前記画像データにおける第1の画素に対して、前記第1の画素に視覚的に類似する前記画像データにおける第2の画素に対して利用可能な前記ライダーデータにおける距離値に少なくとも部分的に基づいて、距離値を推定するように構成される、
    請求項22に記載のシステム。
  24. 前記カメラは、前記ライダーよりも高い解像度を有する、
    請求項23に記載のシステム。
  25. 前記センサ融合モジュールは、セグメントにおける画素の視覚的類似性に少なくとも部分的に基づいて前記画像データにおけるセグメントを定義するように構成される、
    請求項24に記載のシステム。
  26. 前記センサ融合モジュールは、類似する色を有する前記シーンの一部分を表す画素を含むように所与のセグメントの境界を定義するように構成される、
    請求項25に記載のシステム。
  27. 前記センサ融合モジュールは、特定のセグメントにおける画素に関連付けられる前記ライダーデータにおける3又は4以上の距離値を識別し、平面の方程式を用いることによる前記複数の距離値に基づいて、前記ライダーデータにおいて前記距離値が利用できない前記特定のセグメントにおける他の画素の距離値を推定するように構成される、
    請求項25に記載のシステム。
  28. 前記センサ融合モジュールは、前記二次検出結果に基づいて占有グリッドを計算するように構成される、
    請求項18に記載のシステム。
  29. 前記占有グリッドは、前記関心のオブジェクト及び前記関心のオブジェクトの相対位置を定義する、
    請求項28に記載のシステム。
  30. 前記関心のオブジェクトは、車両を含む、
    請求項29に記載のシステム。
  31. 前記占有グリッドは、個々の車両の軌道を識別する、
    請求項30に記載のシステム。
  32. 前記占有グリッドは、個々の車両の速度を識別する、
    請求項30に記載のシステム。
  33. 前記占有グリッドは、前記車両の周りのフリースペースを定義する、
    請求項30に記載のシステム。
  34. 前記センサ融合モジュールは、連続データフレームを介して検出されたオブジェクトを追跡することによって3Dスペースにおいて検出されたオブジェクトの動き経路を辿るために前記二次検出結果を処理するように構成される、
    請求項18に記載のシステム。
JP2022528354A 2019-11-13 2020-11-13 自律車両環境知覚ソフトウェアアーキテクチャ Pending JP2023501812A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962934623P 2019-11-13 2019-11-13
US62/934,623 2019-11-13
PCT/CA2020/051558 WO2021092702A1 (en) 2019-11-13 2020-11-13 Autonomous vehicle environmental perception software architecture

Publications (2)

Publication Number Publication Date
JP2023501812A JP2023501812A (ja) 2023-01-19
JPWO2021092702A5 true JPWO2021092702A5 (ja) 2023-11-20

Family

ID=75911335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022528354A Pending JP2023501812A (ja) 2019-11-13 2020-11-13 自律車両環境知覚ソフトウェアアーキテクチャ

Country Status (7)

Country Link
US (1) US20220398851A1 (ja)
EP (1) EP4058932A4 (ja)
JP (1) JP2023501812A (ja)
KR (1) KR20230004425A (ja)
CN (1) CN115668182A (ja)
CA (1) CA3161616A1 (ja)
WO (1) WO2021092702A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2018365091B2 (en) 2017-11-13 2021-03-04 Raven Industries, Inc. Safety system for autonomous operation of off-road and agricultural vehicles using machine learning for detection and identification of obstacles
WO2021222279A1 (en) * 2020-04-28 2021-11-04 Raven Industries, Inc. Object detection and tracking for automated operation of vehicles and machinery
DE102020211649A1 (de) * 2020-09-17 2022-03-17 Conti Temic Microelectronic Gmbh Verfahren und System zum Erstellen eines Straßenmodells
JP7465290B2 (ja) * 2020-11-09 2024-04-10 達闥機器人股▲分▼有限公司 点群に基づく地図較正方法、システム、ロボット及びクラウドプラットフォーム
US11995157B2 (en) * 2020-12-04 2024-05-28 Caterpillar Inc. Intelligent LiDAR scanning
EP4036602A1 (en) * 2021-01-29 2022-08-03 Aptiv Technologies Limited Radar data processing for vehicle ego-motion estimation
CN114137947A (zh) * 2021-04-15 2022-03-04 上海丰豹商务咨询有限公司 一种具有协同控制功能的车载智能单元及协同控制方法
US12007500B2 (en) * 2021-06-21 2024-06-11 Tdk Corporation Method and system for self-calibrating a scanning system using inertial measurement spatial and temporal data
WO2023001251A1 (zh) * 2021-07-22 2023-01-26 梅卡曼德(北京)机器人科技有限公司 基于动态画幅的 3d 点云处理方法、装置、设备及介质
CN113487749A (zh) * 2021-07-22 2021-10-08 梅卡曼德(北京)机器人科技有限公司 基于动态画幅的3d点云处理方法及装置
GB2609676A (en) * 2021-08-13 2023-02-15 Continental Automotive Gmbh A method and a system for detecting free space region in surroundings of autonomous objects
EP4141838A1 (en) * 2021-08-23 2023-03-01 Zenseact AB Validation of surrounding objects perceived by an ads-equipped vehicle
US20230077207A1 (en) * 2021-09-08 2023-03-09 Motive Technologies, Inc. Close following detection using machine learning models
EP4174799A1 (en) * 2021-10-26 2023-05-03 Zenseact AB Ads perception system perceived free-space verification
CN114332394A (zh) * 2021-12-29 2022-04-12 北京航空航天大学 一种基于语义信息辅助的动态场景三维重建方法
US20230294727A1 (en) * 2022-03-15 2023-09-21 Nvidia Corporation Hazard detection using occupancy grids for autonomous systems and applications
GB2618526A (en) * 2022-05-03 2023-11-15 Oxa Autonomy Ltd Generating a descriptor associated with data of a first modality
CN115145272B (zh) * 2022-06-21 2024-03-29 大连华锐智能化科技有限公司 焦炉车辆环境感知系统及方法
CN115034324B (zh) * 2022-06-21 2023-05-02 同济大学 一种多传感器融合感知效能增强方法
DE102022206345A1 (de) * 2022-06-23 2023-12-28 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Netzwerk zur Sensordatenfusion
CN115291786A (zh) * 2022-09-30 2022-11-04 深圳市广和通无线通信软件有限公司 一种基于机器学习的误触判断方法、装置和存储介质
GB2625589A (en) * 2022-12-21 2024-06-26 Oxa Autonomy Ltd Generating a trajectory for an autonomous vehicle
CN116125897B (zh) * 2023-03-02 2024-06-28 重庆长安汽车股份有限公司 自动驾驶决策方法、装置、电子设备及存储介质
CN116736322B (zh) * 2023-08-15 2023-10-20 山东科技大学 融合相机图像与机载激光雷达点云数据的速度预测方法
CN117953459B (zh) * 2024-03-25 2024-06-21 安徽蔚来智驾科技有限公司 感知融合结果获取方法、可读存储介质及智能设备

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9111444B2 (en) * 2012-10-31 2015-08-18 Raytheon Company Video and lidar target detection and tracking system and method for segmenting moving targets
DE102014205180A1 (de) * 2014-03-20 2015-09-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
EP4296721A3 (en) * 2015-04-01 2024-03-20 Vayavision Sensing Ltd. Generating 3-dimensional maps of a scene using passive and active measurements
US9880263B2 (en) * 2015-04-06 2018-01-30 Waymo Llc Long range steerable LIDAR system
US10582121B2 (en) * 2016-01-12 2020-03-03 Mitsubishi Electric Research Laboratories, Inc. System and method for fusing outputs of sensors having different resolutions
US10740658B2 (en) * 2016-09-08 2020-08-11 Mentor Graphics Corporation Object recognition and classification using multiple sensor modalities
US10445928B2 (en) * 2017-02-11 2019-10-15 Vayavision Ltd. Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
US11531109B2 (en) * 2019-03-30 2022-12-20 Intel Corporation Technologies for managing a world model of a monitored area

Similar Documents

Publication Publication Date Title
JPWO2021092702A5 (ja)
CN110942449B (zh) 一种基于激光与视觉融合的车辆检测方法
US10217007B2 (en) Detecting method and device of obstacles based on disparity map and automobile driving assistance system
CN107038723B (zh) 棒状像素估计方法和系统
JP5926228B2 (ja) 自律車両用の奥行き検知方法及びシステム
EP3007099B1 (en) Image recognition system for a vehicle and corresponding method
CN105335955B (zh) 对象检测方法和对象检测装置
JP6700752B2 (ja) 位置検出装置、位置検出方法及びプログラム
US9862318B2 (en) Method to determine distance of an object from an automated vehicle with a monocular device
JP4429298B2 (ja) 対象個数検出装置および対象個数検出方法
JP6328327B2 (ja) 画像処理装置及び画像処理方法
JP6574611B2 (ja) 立体画像に基づいて距離情報を求めるためのセンサシステム
JP6561512B2 (ja) 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム
US20190180121A1 (en) Detection of Objects from Images of a Camera
JP2014009975A (ja) ステレオカメラ
Yiruo et al. Complex ground plane detection based on v-disparity map in off-road environment
Lion et al. Smart speed bump detection and estimation with kinect
Haseeb et al. Long-range obstacle detection from a monocular camera
JP6561511B2 (ja) 視差値導出装置、移動体、ロボット、視差値生産導出方法、視差値の生産方法及びプログラム
JP6699323B2 (ja) 電車設備の三次元計測装置及び三次元計測方法
Giosan et al. Superpixel-based obstacle segmentation from dense stereo urban traffic scenarios using intensity, depth and optical flow information
JP5587852B2 (ja) 画像処理装置及び画像処理方法
JP4918615B2 (ja) 対象個数検出装置および対象個数検出方法
JP6466679B2 (ja) 物体検出装置
Langenberg et al. Automatic traffic light to ego vehicle lane association at complex intersections