JPWO2021092702A5 - - Google Patents
Download PDFInfo
- Publication number
- JPWO2021092702A5 JPWO2021092702A5 JP2022528354A JP2022528354A JPWO2021092702A5 JP WO2021092702 A5 JPWO2021092702 A5 JP WO2021092702A5 JP 2022528354 A JP2022528354 A JP 2022528354A JP 2022528354 A JP2022528354 A JP 2022528354A JP WO2021092702 A5 JPWO2021092702 A5 JP WO2021092702A5
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- data
- scene
- lidar
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims 21
- 238000001514 detection method Methods 0.000 claims 11
- 230000004927 fusion Effects 0.000 claims 11
- 239000003086 colorant Substances 0.000 claims 2
- 238000005259 measurement Methods 0.000 claims 2
- 230000000007 visual effect Effects 0.000 claims 2
- 230000006870 function Effects 0.000 claims 1
- 230000008447 perception Effects 0.000 claims 1
Claims (34)
- 関心のオブジェクトを包含するシーンを感知する方法であって、
a.複数のセンサモダリティからのセンサデータを受け取ることであって、各センサモダリティが、前記関心のオブジェクトの少なくとも1つを包含する前記シーンの少なくとも一部分を観察し、前記シーンの一部分及び前記少なくとも1つの関心のオブジェクトに関する情報を伝達するセンサデータを生成する、センサデータを受け取ることと、
b.前記関心のオブジェクトを検出するとともに複数の一次検出結果を生成するために前記各センサモダリティからのセンサデータを処理することであって、各検出結果がそれぞれのセンサモダリティに関連付けられる、センサデータを処理することと、
c.前記シーンの融合3Dマップを生成するために第1のセンサモダリティから取得されたセンサデータを第2のセンサモダリティから取得されたセンサデータと融合することと、
d.前記シーンにおける関心のオブジェクトを検出するとともに二次検出結果を生成するために前記融合3Dマップを処理することと、
e.前記一次及び前記二次検出結果に対してオブジェクトレベル融合を実行することと、
を含む、方法。 - 前記複数のセンサモダリティは、前記シーンの少なくとも一部分を表す画像データを生成するカメラを含む、
請求項1に記載の方法。 - 前記複数のセンサモダリティは、前記シーンの少なくとも一部分を表すライダーデータを生成するライダーを含む、
請求項2に記載の方法。 - 前記複数のセンサモダリティは、前記シーンの少なくとも一部分を表すレーダーデータを生成するレーダーを含む、
請求項2に記載の方法。 - 前記画像データは、複数の画素を伝達し、前記ライダーデータは、複数の距離測定値を伝達し、前記融合することは、前記ライダーデータからの距離値を前記画像データにおける画素に関連付けることを含む、
請求項3に記載の方法。 - 前記融合することは、前記ライダーデータにおいて前記距離値が利用できない前記画像データにおける第1の画素に対して、前記第1の画素に視覚的に類似する前記画像データにおける第2の画素に対して利用可能な前記ライダーデータにおける距離値に少なくとも部分的に基づいて、距離値を推定することを含む、
請求項5に記載の方法。 - 前記カメラは、前記ライダーよりも高い解像度を有する、
請求項6に記載の方法。 - 前記融合することは、セグメントにおける画素の視覚的類似性に少なくとも部分的に基づいて前記画像データにおけるセグメントを定義することを含む、
請求項7に記載の方法。 - 前記融合することは、類似する色を有する前記シーンの一部分を表す画素を含むように所与のセグメントの境界を定義する、
請求項8に記載の方法。 - 前記融合することは、特定のセグメントにおける画素に関連付けられる前記ライダーデータにおける3又は4以上の距離値を識別し、平面の方程式を用いることによる前記複数の距離値に基づいて、前記ライダーデータにおいて前記距離値が利用できない前記特定のセグメントにおける他の画素の距離値を推定する、
請求項8に記載の方法。 - 前記二次検出結果に基づいて占有グリッドを計算することを含む、
請求項1に記載の方法。 - 前記占有グリッドは、前記関心のオブジェクト、及び前記関心のオブジェクトの相対位置を定義する、
請求項11に記載の方法。 - 前記関心のオブジェクトは、車両を含む、
請求項12に記載の方法。 - 前記占有グリッドは、個々の車両の軌道を識別する、
請求項13に記載の方法。 - 前記占有グリッドは、個々の車両の速度を識別する、
請求項14に記載の方法。 - 前記占有グリッドは、前記車両の周りのフリースペースを定義する、
請求項15に記載の方法。 - 連続データフレームを介して検出されたオブジェクトを追跡することによって3Dスペースにおいて検出されたオブジェクトの動き経路を辿るために前記二次検出結果を処理することを更に含む、
請求項16に記載の方法。 - a.複数のセンサモジュールであって、各センサモジュールが、
i.前記複数のセンサモジュールのうちのセンサモジュールの別のセンサのモダリティとは異なるそれぞれのモダリティに従って動作するセンサであって、関心のオブジェクトの少なくとも1つを包含するシーンの少なくとも一部分を観察し、前記シーンの一部分及び前記少なくとも1つの関心のオブジェクトに関する情報を伝達するセンサデータを生成するように構成されるセンサと、
ii.一次検出結果を出力するために前記センサデータを処理する知覚機能ブロックと、
を含む、複数のセンサモジュールと、
b.センサ融合モジュールであって、
i.前記シーンの融合3Dマップを生成するために、第1のセンサモダリティに従って動作する第1のセンサモジュールから取得されたセンサデータを、第2のセンサモダリティに従って動作する第2のセンサモジュールから取得されたセンサデータと融合し、
ii.前記シーンにおける関心のオブジェクトを検出するとともに二次検出結果を生成するために前記融合3Dマップを処理し、
iii.前記一次及び前記二次検出結果に対してオブジェクトレベルの融合を実行する、
ように構成されたセンサ融合モジュールと、
を備える、システム。 - 前記複数のセンサモダリティは、前記シーンの少なくとも一部分を表す画像データを生成するカメラを含む、
請求項18に記載のシステム。 - 前記複数のセンサモダリティは、前記シーンの少なくとも一部分を表すライダーデータを生成するライダーを含む、
請求項19に記載のシステム。 - 前記複数のセンサモダリティは、前記シーンの少なくとも一部分を表すレーダーデータを生成するレーダーを含む、
請求項19に記載のシステム。 - 前記画像データは、複数の画素を伝達し、前記ライダーデータは、複数の距離測定値を伝達し、前記センサ融合モジュールは、前記ライダーデータからの距離値を前記画像データにおける画素に関連付けるように構成される、
請求項20に記載のシステム。 - 前記センサ融合モジュールは、前記ライダーデータにおいて前記距離値が利用できない前記画像データにおける第1の画素に対して、前記第1の画素に視覚的に類似する前記画像データにおける第2の画素に対して利用可能な前記ライダーデータにおける距離値に少なくとも部分的に基づいて、距離値を推定するように構成される、
請求項22に記載のシステム。 - 前記カメラは、前記ライダーよりも高い解像度を有する、
請求項23に記載のシステム。 - 前記センサ融合モジュールは、セグメントにおける画素の視覚的類似性に少なくとも部分的に基づいて前記画像データにおけるセグメントを定義するように構成される、
請求項24に記載のシステム。 - 前記センサ融合モジュールは、類似する色を有する前記シーンの一部分を表す画素を含むように所与のセグメントの境界を定義するように構成される、
請求項25に記載のシステム。 - 前記センサ融合モジュールは、特定のセグメントにおける画素に関連付けられる前記ライダーデータにおける3又は4以上の距離値を識別し、平面の方程式を用いることによる前記複数の距離値に基づいて、前記ライダーデータにおいて前記距離値が利用できない前記特定のセグメントにおける他の画素の距離値を推定するように構成される、
請求項25に記載のシステム。 - 前記センサ融合モジュールは、前記二次検出結果に基づいて占有グリッドを計算するように構成される、
請求項18に記載のシステム。 - 前記占有グリッドは、前記関心のオブジェクト及び前記関心のオブジェクトの相対位置を定義する、
請求項28に記載のシステム。 - 前記関心のオブジェクトは、車両を含む、
請求項29に記載のシステム。 - 前記占有グリッドは、個々の車両の軌道を識別する、
請求項30に記載のシステム。 - 前記占有グリッドは、個々の車両の速度を識別する、
請求項30に記載のシステム。 - 前記占有グリッドは、前記車両の周りのフリースペースを定義する、
請求項30に記載のシステム。 - 前記センサ融合モジュールは、連続データフレームを介して検出されたオブジェクトを追跡することによって3Dスペースにおいて検出されたオブジェクトの動き経路を辿るために前記二次検出結果を処理するように構成される、
請求項18に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962934623P | 2019-11-13 | 2019-11-13 | |
US62/934,623 | 2019-11-13 | ||
PCT/CA2020/051558 WO2021092702A1 (en) | 2019-11-13 | 2020-11-13 | Autonomous vehicle environmental perception software architecture |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023501812A JP2023501812A (ja) | 2023-01-19 |
JPWO2021092702A5 true JPWO2021092702A5 (ja) | 2023-11-20 |
Family
ID=75911335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022528354A Pending JP2023501812A (ja) | 2019-11-13 | 2020-11-13 | 自律車両環境知覚ソフトウェアアーキテクチャ |
Country Status (7)
Country | Link |
---|---|
US (1) | US20220398851A1 (ja) |
EP (1) | EP4058932A4 (ja) |
JP (1) | JP2023501812A (ja) |
KR (1) | KR20230004425A (ja) |
CN (1) | CN115668182A (ja) |
CA (1) | CA3161616A1 (ja) |
WO (1) | WO2021092702A1 (ja) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2018365091B2 (en) | 2017-11-13 | 2021-03-04 | Raven Industries, Inc. | Safety system for autonomous operation of off-road and agricultural vehicles using machine learning for detection and identification of obstacles |
WO2021222279A1 (en) * | 2020-04-28 | 2021-11-04 | Raven Industries, Inc. | Object detection and tracking for automated operation of vehicles and machinery |
DE102020211649A1 (de) * | 2020-09-17 | 2022-03-17 | Conti Temic Microelectronic Gmbh | Verfahren und System zum Erstellen eines Straßenmodells |
JP7465290B2 (ja) * | 2020-11-09 | 2024-04-10 | 達闥機器人股▲分▼有限公司 | 点群に基づく地図較正方法、システム、ロボット及びクラウドプラットフォーム |
US11995157B2 (en) * | 2020-12-04 | 2024-05-28 | Caterpillar Inc. | Intelligent LiDAR scanning |
EP4036602A1 (en) * | 2021-01-29 | 2022-08-03 | Aptiv Technologies Limited | Radar data processing for vehicle ego-motion estimation |
CN114137947A (zh) * | 2021-04-15 | 2022-03-04 | 上海丰豹商务咨询有限公司 | 一种具有协同控制功能的车载智能单元及协同控制方法 |
US12007500B2 (en) * | 2021-06-21 | 2024-06-11 | Tdk Corporation | Method and system for self-calibrating a scanning system using inertial measurement spatial and temporal data |
WO2023001251A1 (zh) * | 2021-07-22 | 2023-01-26 | 梅卡曼德(北京)机器人科技有限公司 | 基于动态画幅的 3d 点云处理方法、装置、设备及介质 |
CN113487749A (zh) * | 2021-07-22 | 2021-10-08 | 梅卡曼德(北京)机器人科技有限公司 | 基于动态画幅的3d点云处理方法及装置 |
GB2609676A (en) * | 2021-08-13 | 2023-02-15 | Continental Automotive Gmbh | A method and a system for detecting free space region in surroundings of autonomous objects |
EP4141838A1 (en) * | 2021-08-23 | 2023-03-01 | Zenseact AB | Validation of surrounding objects perceived by an ads-equipped vehicle |
US20230077207A1 (en) * | 2021-09-08 | 2023-03-09 | Motive Technologies, Inc. | Close following detection using machine learning models |
EP4174799A1 (en) * | 2021-10-26 | 2023-05-03 | Zenseact AB | Ads perception system perceived free-space verification |
CN114332394A (zh) * | 2021-12-29 | 2022-04-12 | 北京航空航天大学 | 一种基于语义信息辅助的动态场景三维重建方法 |
US20230294727A1 (en) * | 2022-03-15 | 2023-09-21 | Nvidia Corporation | Hazard detection using occupancy grids for autonomous systems and applications |
GB2618526A (en) * | 2022-05-03 | 2023-11-15 | Oxa Autonomy Ltd | Generating a descriptor associated with data of a first modality |
CN115145272B (zh) * | 2022-06-21 | 2024-03-29 | 大连华锐智能化科技有限公司 | 焦炉车辆环境感知系统及方法 |
CN115034324B (zh) * | 2022-06-21 | 2023-05-02 | 同济大学 | 一种多传感器融合感知效能增强方法 |
DE102022206345A1 (de) * | 2022-06-23 | 2023-12-28 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren und Netzwerk zur Sensordatenfusion |
CN115291786A (zh) * | 2022-09-30 | 2022-11-04 | 深圳市广和通无线通信软件有限公司 | 一种基于机器学习的误触判断方法、装置和存储介质 |
GB2625589A (en) * | 2022-12-21 | 2024-06-26 | Oxa Autonomy Ltd | Generating a trajectory for an autonomous vehicle |
CN116125897B (zh) * | 2023-03-02 | 2024-06-28 | 重庆长安汽车股份有限公司 | 自动驾驶决策方法、装置、电子设备及存储介质 |
CN116736322B (zh) * | 2023-08-15 | 2023-10-20 | 山东科技大学 | 融合相机图像与机载激光雷达点云数据的速度预测方法 |
CN117953459B (zh) * | 2024-03-25 | 2024-06-21 | 安徽蔚来智驾科技有限公司 | 感知融合结果获取方法、可读存储介质及智能设备 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9111444B2 (en) * | 2012-10-31 | 2015-08-18 | Raytheon Company | Video and lidar target detection and tracking system and method for segmenting moving targets |
DE102014205180A1 (de) * | 2014-03-20 | 2015-09-24 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs |
EP4296721A3 (en) * | 2015-04-01 | 2024-03-20 | Vayavision Sensing Ltd. | Generating 3-dimensional maps of a scene using passive and active measurements |
US9880263B2 (en) * | 2015-04-06 | 2018-01-30 | Waymo Llc | Long range steerable LIDAR system |
US10582121B2 (en) * | 2016-01-12 | 2020-03-03 | Mitsubishi Electric Research Laboratories, Inc. | System and method for fusing outputs of sensors having different resolutions |
US10740658B2 (en) * | 2016-09-08 | 2020-08-11 | Mentor Graphics Corporation | Object recognition and classification using multiple sensor modalities |
US10445928B2 (en) * | 2017-02-11 | 2019-10-15 | Vayavision Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
US11531109B2 (en) * | 2019-03-30 | 2022-12-20 | Intel Corporation | Technologies for managing a world model of a monitored area |
-
2020
- 2020-11-13 JP JP2022528354A patent/JP2023501812A/ja active Pending
- 2020-11-13 EP EP20887318.2A patent/EP4058932A4/en active Pending
- 2020-11-13 WO PCT/CA2020/051558 patent/WO2021092702A1/en unknown
- 2020-11-13 KR KR1020227019743A patent/KR20230004425A/ko unknown
- 2020-11-13 CN CN202080089724.1A patent/CN115668182A/zh active Pending
- 2020-11-13 US US17/776,928 patent/US20220398851A1/en active Pending
- 2020-11-13 CA CA3161616A patent/CA3161616A1/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPWO2021092702A5 (ja) | ||
CN110942449B (zh) | 一种基于激光与视觉融合的车辆检测方法 | |
US10217007B2 (en) | Detecting method and device of obstacles based on disparity map and automobile driving assistance system | |
CN107038723B (zh) | 棒状像素估计方法和系统 | |
JP5926228B2 (ja) | 自律車両用の奥行き検知方法及びシステム | |
EP3007099B1 (en) | Image recognition system for a vehicle and corresponding method | |
CN105335955B (zh) | 对象检测方法和对象检测装置 | |
JP6700752B2 (ja) | 位置検出装置、位置検出方法及びプログラム | |
US9862318B2 (en) | Method to determine distance of an object from an automated vehicle with a monocular device | |
JP4429298B2 (ja) | 対象個数検出装置および対象個数検出方法 | |
JP6328327B2 (ja) | 画像処理装置及び画像処理方法 | |
JP6574611B2 (ja) | 立体画像に基づいて距離情報を求めるためのセンサシステム | |
JP6561512B2 (ja) | 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム | |
US20190180121A1 (en) | Detection of Objects from Images of a Camera | |
JP2014009975A (ja) | ステレオカメラ | |
Yiruo et al. | Complex ground plane detection based on v-disparity map in off-road environment | |
Lion et al. | Smart speed bump detection and estimation with kinect | |
Haseeb et al. | Long-range obstacle detection from a monocular camera | |
JP6561511B2 (ja) | 視差値導出装置、移動体、ロボット、視差値生産導出方法、視差値の生産方法及びプログラム | |
JP6699323B2 (ja) | 電車設備の三次元計測装置及び三次元計測方法 | |
Giosan et al. | Superpixel-based obstacle segmentation from dense stereo urban traffic scenarios using intensity, depth and optical flow information | |
JP5587852B2 (ja) | 画像処理装置及び画像処理方法 | |
JP4918615B2 (ja) | 対象個数検出装置および対象個数検出方法 | |
JP6466679B2 (ja) | 物体検出装置 | |
Langenberg et al. | Automatic traffic light to ego vehicle lane association at complex intersections |