JP7345504B2 - Lidarデータと画像データの関連付け - Google Patents
Lidarデータと画像データの関連付け Download PDFInfo
- Publication number
- JP7345504B2 JP7345504B2 JP2020561676A JP2020561676A JP7345504B2 JP 7345504 B2 JP7345504 B2 JP 7345504B2 JP 2020561676 A JP2020561676 A JP 2020561676A JP 2020561676 A JP2020561676 A JP 2020561676A JP 7345504 B2 JP7345504 B2 JP 7345504B2
- Authority
- JP
- Japan
- Prior art keywords
- lidar
- depth estimate
- depth
- image
- estimate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 127
- 238000009826 distribution Methods 0.000 claims description 53
- 238000005259 measurement Methods 0.000 claims description 40
- 230000008569 process Effects 0.000 claims description 30
- 238000010801 machine learning Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 3
- 230000001133 acceleration Effects 0.000 claims description 2
- 230000008447 perception Effects 0.000 description 39
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/77—Determining position or orientation of objects or cameras using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Optics & Photonics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Processing (AREA)
Description
このPCT国際出願は、参照により本明細書に組み込まれている、2018年5月3日に出願された米国特許出願第15/970,838号の優先権の利益を主張するものである。
図1Aは、この例ではバンである検出されたオブジェクト102と、画像内の検出されたオブジェクトの位置を識別するように生成されたROI104とを含む例示的な画像100を示す。図1AのROI104は、2次元バウンディングボックスによって示されている。しかしながら、任意の他の適切な方法が、画像に対応する画像のピクセルのグループを示すために使用されてよいことは理解されよう(例えば、一般にインスタンスと呼ばれることがある、車両に関連付けられた離散ピクセルを識別するピクセルマスク)。いくつかの例では、画像及び/又はバウンディングボックスは、自律車両の視覚システムによって生成され、検出されたオブジェクトに関連付けられた深度を知覚システムが決定するために自律車両の知覚システムによって受信され得る。
図2A及び図2Bは、例示的なシナリオ200、星で表され例示的な車両202のLIDARセンサにより取り込まれる例示的なLIDARデータ、例示的な検出されたオブジェクト204、及び例示的な遮蔽オブジェクト206(例えば、道標の柱)の鳥瞰図及び側面プロファイル図をそれぞれ示す。例えば、図示されたLIDARデータは、1つのメタスピンに取り込まれたLIDARデータを表すことができる。実際には、点群は、ここに図示されている数十個ではなく数万個以上のポイントを含む可能性が高いことが理解されよう。車両202は、少なくともカメラ及びLIDARセンサが装備された自律車両を表すことができる。
図3は、図2A~図2Cの例示的なシナリオに対応する単眼画像モデルによって生成された例示的な確率分布300、及び3つの例示的なLIDARポイント302、304、及び306に関連付けられた例示的な確率の図を示す。
図5A~図5Cは、単眼画像の深度知覚のための例示的なプロセス500(例えば、画像において検出されたオブジェクトの深度推定値を決定する)を示す。いくつかの例では、例示的なプロセス500が視覚エンジン502及び/又は知覚エンジン504によって実行され得る。いくつかの動作は、これらのエンジンのうちの1つによって実行されるものとして示されているが、それは、追加的又は代替的に他のエンジンによって実行され得ることは理解されよう。いくつかの例では、視覚エンジン502及び/又は知覚エンジン504は、自律車両を制御するための自律車両システムの一部であってよい。いくつかの例では、視覚エンジン502及び知覚エンジン504は、本明細書で論じられる動作のうちの1つ又は複数を並列に実行することができる。例えば、図5A及び5Bは、並列に動作する視覚エンジン502及び知覚エンジン504を示す。視覚エンジン502及び知覚エンジン504は、(例えば、一方のエンジンでの動作が他方のエンジンでの動作の結果を必要とする場合に)動作の1つ又は複数を連続的に実行してよいことも理解されよう
図6は、本明細書で論じられる技法のいずれかに従って、生成された深度推定値を使用して、自律車両などの少なくとも1つの車両の動作を制御するための例示的な車両システム602を含む例示的なアーキテクチャ600のブロック図である。いくつかの例では、車両システム602は、車両108及び/又は202の少なくとも一部を表すことができる。いくつかの例では、このアーキテクチャは、画像において検出されたオブジェクトの深度を決定するために他の機械で使用され得る。
A.1つ又は複数のプロセッサと、1つ又は複数のプロセッサによって実行可能な命令を記憶する1つ又は複数のコンピュータ可読媒体とを備えるシステムであって、命令は、実行されたとき、システムに、環境の画像を画像センサから受信するステップと、画像に少なくとも部分的に基づいて、環境内のオブジェクトを表すものとして画像の一部分を識別する関心領域を決定するステップと、LIDARデバイスからLIDARポイントを受信するステップであって、LIDARポイントは、関心領域、及び画像が取り込まれた時間に関連付けられている、ステップと、LIDARポイントについてのスコアを生成するステップであって、LIDARポイントについてのスコアを生成するステップは、単眼画像モデルによって生成された確率分布に少なくとも部分的に基づいて、LIDARポイントに関連付けられた深度測定値に関連付けられている確率密度を決定することと、画像へ投影されたLIDARポイントと関心領域の中心との間のピクセルにおける距離に少なくとも部分的に基づいて、係数を決定することとを含む、ステップと、加重メジアン計算を使用して、オブジェクトの一次深度推定値を決定するステップであって、加重メジアン計算に関連付けられた重みはスコアを含む、ステップとを実行させる。
Claims (15)
- 1つ又は複数のプロセッサによって実行される方法であって、
LIDARデータと、環境の画像データとを受信するステップと、
前記環境内で検出されたオブジェクトに関連付けられた前記画像データの一部を識別する関心領域を決定するステップと、
前記関心領域に対応する前記LIDARデータのLIDARポイントを決定するステップと、
前記LIDARポイントについてのスコアを生成するステップであって、LIDARポイントについてのスコアを生成することは、
前記関心領域の中心から前記画像データ上への前記LIDARポイントの投影までの距離に少なくとも部分的に基づいて係数を決定することと、
前記画像データ及び/又は前記オブジェクトの分類を入力として受け取り、かつ前記画像データ及び/又は前記分類に少なくとも部分的に基づいて確率分布を決定する機械学習モデルによって生成された前記確率分布から、前記LIDARポイントに関連付けられた深度測定値の確率密度を決定することと、
前記確率密度及び前記係数に少なくとも部分的に基づいて前記スコアを生成することと、を含む、ステップと、
前記スコアを重みとして使用して前記LIDARポイントの加重メジアンを決定するステップと、
一次深度推定値として、前記加重メジアンに関連付けられた深度測定値を識別するステップであって、前記一次深度推定値は、前記環境における前記オブジェクトまでの距離に関連付けられている、ステップと、
を含む、方法。 - 前記係数を決定することは、前記画像データ上への前記LIDARポイントの前記投影を用いて、前記関心領域の前記中心を中心にしたガウス分布を評価すること、
を含む、
請求項1に記載の方法。 - 前記確率密度を決定することは、機械学習モデルを介して、前記オブジェクトの分類に少なくとも部分的に基づいて、深度の範囲にわたって確率分布を生成すること、
を含む、
請求項1に記載の方法。 - 前記スコアを生成することは、前記確率密度に前記係数を掛けること、
を含む、
請求項1に記載の方法。 - 前記一次深度推定値を含む深度値の範囲を満たす又は超える距離に関連付けられたLIDARポイントのサブセットを識別するステップと、
前記サブセットに関連付けられたスコアに少なくとも部分的に基づいて、第2の加重メジアンを決定するステップと、
二次深度推定値として、前記第2の加重メジアンに関連付けられた深度測定値を識別するステップと、
をさらに含む、
請求項1に記載の方法。 - 前記深度値の範囲は、前記一次深度推定値よりも0.8メートル小さいポイントから、前記一次深度推定値よりも1.6メートル大きいポイントまで変化する、
請求項5に記載の方法。 - 前記一次深度推定値を用いて前記確率分布を評価することによって前記一次深度推定値に関連付けられた第1の確率密度又は第1の確率を、前記二次深度推定値を用いて前記確率分布を評価することによって前記二次深度推定値に関連付けられた第2の確率密度又は第2の確率と比較すること、
前記一次深度推定値に関連付けられたLIDARポイントの第1の密度を、前記二次深度推定値に関連付けられたLIDARポイントの第2の密度と比較すること、又は
前記一次深度推定値及び前記二次深度推定値を、前記オブジェクトに関連付けられたオブジェクトトラックと比較することであって、前記オブジェクトトラックは、所定期間にわたる前記オブジェクトの履歴位置、速度、加速度、及び/又は進行方向に関連付けられている、ことと、
の少なくとも1つに少なくとも部分的に基づいて、前記一次深度推定値又は前記二次深度推定値を出力深度として選択するステップをさらに含む、
請求項5に記載の方法。 - 前記二次深度推定値を選択することは、
前記オブジェクトの少なくとも一部を遮蔽する遮蔽オブジェクトの存在を示すことと、
前記一次深度推定値を前記遮蔽オブジェクトに関連付け、前記二次深度推定値を前記オブジェクトに関連付けることと、
をさらに含む、
請求項7に記載の方法。 - 自律車両のコントローラに前記出力深度を送信するステップと、
前記出力深度に少なくとも部分的に基づいて軌道を生成するステップであって、前記軌道は、前記自律車両に前記環境の一部を横切らせるように構成される、ステップと、
をさらに含む、
請求項7又は8に記載の方法。 - 前記一次深度推定値及び前記二次深度推定値を、前記機械学習モデルの出力と比較すること、
前記一次深度推定値に関連付けられたLIDARポイントの第1の密度を、前記二次深度推定値に関連付けられたLIDARポイントの第2の密度と比較すること、又は
前記一次深度推定値及び前記二次深度推定値を、前記オブジェクトに関連付けられたオブジェクトトラックと比較すること、
をさらに含む、
請求項7に記載の方法。 - 前記一次深度推定値又は前記二次深度推定値に少なくとも部分的に基づいて、前記環境内の前記オブジェクトの位置を識別するステップと、
前記オブジェクトの前記位置に少なくとも部分的に基づいて、自律車両の動きを制御するための軌道を生成するステップと、
をさらに含む、
請求項5、7、8、又は10に記載の方法。 - 少なくとも部分的に前記一次深度推定値に基づいて、前記環境内の前記オブジェクトの位置を識別するステップと、
少なくとも部分的に前記オブジェクトの前記位置に基づいて、自律車両の動きを制御するための軌道を生成するステップと、
をさらに含む、
請求項1に記載の方法。 - 前記関心領域に対応する前記LIDARポイントを決定するステップは、
前記LIDARポイントを含むLIDARポイントの集まりを画像空間に投影することと、
前記関心領域の範囲内に位置するものとして前記LIDARポイントを識別することと、
を含み、
前記関心領域は、前記環境内の前記オブジェクトを表すものとして画像の一部を識別し、前記画像及び前記LIDARポイントは、十分に近い時間に受信される、
請求項1に記載の方法。 - システムであって、
1つ又は複数のプロセッサと、
前記1つ又は複数のプロセッサによって実行可能な命令を格納する1つ又は複数のコンピュータ可読媒体と、を備え、前記命令は、実行されたとき、前記システムに、請求項1~13のいずれか1項に記載の処理を実行させる、システム。 - 実行されたとき、1つ又は複数のプロセッサに、請求項1~13のいずれか1項に記載の処理を実行させる、格納された命令のセットを有する非一時的なコンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/970,838 US10726567B2 (en) | 2018-05-03 | 2018-05-03 | Associating LIDAR data and image data |
US15/970,838 | 2018-05-03 | ||
PCT/US2019/028819 WO2019212811A1 (en) | 2018-05-03 | 2019-04-23 | Associating lidar data and image data |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021523443A JP2021523443A (ja) | 2021-09-02 |
JP7345504B2 true JP7345504B2 (ja) | 2023-09-15 |
Family
ID=66867746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020561676A Active JP7345504B2 (ja) | 2018-05-03 | 2019-04-23 | Lidarデータと画像データの関連付け |
Country Status (5)
Country | Link |
---|---|
US (2) | US10726567B2 (ja) |
EP (1) | EP3788597A1 (ja) |
JP (1) | JP7345504B2 (ja) |
CN (2) | CN118115557A (ja) |
WO (1) | WO2019212811A1 (ja) |
Families Citing this family (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106683123B (zh) * | 2016-10-31 | 2019-04-02 | 纳恩博(北京)科技有限公司 | 一种目标跟踪方法及目标跟踪装置 |
TWI688502B (zh) * | 2018-02-14 | 2020-03-21 | 先進光電科技股份有限公司 | 用於警告車輛障礙物的設備 |
US10726567B2 (en) | 2018-05-03 | 2020-07-28 | Zoox, Inc. | Associating LIDAR data and image data |
US10852420B2 (en) * | 2018-05-18 | 2020-12-01 | Industrial Technology Research Institute | Object detection system, autonomous vehicle using the same, and object detection method thereof |
US10916014B2 (en) * | 2018-06-01 | 2021-02-09 | Ford Global Technologies, Llc | Distinguishing virtual objects from one another |
CN110609274B (zh) * | 2018-06-15 | 2022-07-01 | 杭州海康威视数字技术股份有限公司 | 一种测距方法、装置及系统 |
US11204605B1 (en) * | 2018-08-03 | 2021-12-21 | GM Global Technology Operations LLC | Autonomous vehicle controlled based upon a LIDAR data segmentation system |
US11009590B2 (en) | 2018-08-29 | 2021-05-18 | Aptiv Technologies Limited | Annotation of radar-profiles of objects |
CN109145489B (zh) * | 2018-09-07 | 2020-01-17 | 百度在线网络技术(北京)有限公司 | 一种基于概率图的障碍物分布仿真方法、装置以及终端 |
US10884424B2 (en) | 2018-09-07 | 2021-01-05 | GM Global Technology Operations LLC | Traffic light occlusion detection for autonomous vehicle |
JP2021508815A (ja) * | 2018-11-15 | 2021-03-11 | ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド | 妨害物体の検出に基づいて高精細度マップを補正するためのシステムおよび方法 |
CN111238494B (zh) * | 2018-11-29 | 2022-07-19 | 财团法人工业技术研究院 | 载具、载具定位系统及载具定位方法 |
US10818028B2 (en) * | 2018-12-17 | 2020-10-27 | Microsoft Technology Licensing, Llc | Detecting objects in crowds using geometric context |
US10860864B2 (en) * | 2019-01-16 | 2020-12-08 | Charter Communications Operating, Llc | Surveillance and image analysis in a monitored environment |
US11276189B2 (en) * | 2019-03-06 | 2022-03-15 | Qualcomm Incorporated | Radar-aided single image three-dimensional depth reconstruction |
US10937178B1 (en) | 2019-05-09 | 2021-03-02 | Zoox, Inc. | Image-based depth data and bounding boxes |
US10984543B1 (en) * | 2019-05-09 | 2021-04-20 | Zoox, Inc. | Image-based depth data and relative depth data |
US11087494B1 (en) | 2019-05-09 | 2021-08-10 | Zoox, Inc. | Image-based depth data and localization |
JP7226553B2 (ja) * | 2019-07-22 | 2023-02-21 | 日本電気株式会社 | 情報処理装置、データ生成方法、及びプログラム |
US11380046B2 (en) * | 2019-07-23 | 2022-07-05 | Texas Instruments Incorporated | Surround view |
US11242098B2 (en) * | 2019-07-26 | 2022-02-08 | Waymo Llc | Efficient autonomous trucks |
US11022972B2 (en) | 2019-07-31 | 2021-06-01 | Bell Textron Inc. | Navigation system with camera assist |
US11556000B1 (en) | 2019-08-22 | 2023-01-17 | Red Creamery Llc | Distally-actuated scanning mirror |
US11348332B2 (en) * | 2019-09-25 | 2022-05-31 | Toyota Research Institute, Inc. | Object location analysis |
US12012127B2 (en) | 2019-10-26 | 2024-06-18 | Zoox, Inc. | Top-down view object detection and tracking |
US11288509B2 (en) * | 2019-11-12 | 2022-03-29 | Toyota Research Institute, Inc. | Fall detection and assistance |
US11157774B2 (en) * | 2019-11-14 | 2021-10-26 | Zoox, Inc. | Depth data model training with upsampling, losses, and loss balancing |
US11893750B2 (en) * | 2019-11-15 | 2024-02-06 | Zoox, Inc. | Multi-task learning for real-time semantic and/or depth aware instance segmentation and/or three-dimensional object bounding |
US11614742B2 (en) * | 2019-11-27 | 2023-03-28 | Zoox, Inc. | Height estimation using sensor data |
CN113075922A (zh) * | 2019-12-17 | 2021-07-06 | 图森有限公司 | 来自多个传感器的数据集成 |
CN111274343B (zh) * | 2020-01-20 | 2023-11-24 | 阿波罗智能技术(北京)有限公司 | 一种车辆定位方法、装置、电子设备及存储介质 |
US11663726B2 (en) | 2020-01-31 | 2023-05-30 | Zoox, Inc. | Object velocity and/or yaw rate detection and tracking |
US10964094B1 (en) * | 2020-01-31 | 2021-03-30 | Vr Media Technology, Inc. | Visualization system that transforms 2D images of objects slices into 3D point clouds |
DE102020201469A1 (de) | 2020-02-06 | 2021-08-12 | Zf Friedrichshafen Ag | Erkennung von Objekten |
US12013457B2 (en) * | 2020-03-05 | 2024-06-18 | Uatc, Llc | Systems and methods for integrating radar data for improved object detection in autonomous vehicles |
US11546568B1 (en) * | 2020-03-06 | 2023-01-03 | Nvidia Corporation | View synthesis for dynamic scenes |
US11481913B2 (en) * | 2020-03-11 | 2022-10-25 | Gm Cruise Holdings Llc | LiDAR point selection using image segmentation |
EP3882813A1 (en) | 2020-03-20 | 2021-09-22 | Aptiv Technologies Limited | Method for generating a dynamic occupancy grid |
EP3905106A1 (en) | 2020-04-27 | 2021-11-03 | Aptiv Technologies Limited | Method for determining a drivable area |
EP3905105A1 (en) | 2020-04-27 | 2021-11-03 | Aptiv Technologies Limited | Method for determining a collision free space |
US11180162B1 (en) * | 2020-05-07 | 2021-11-23 | Argo AI, LLC | Systems and methods for controlling vehicles using an amodal cuboid based algorithm |
CN111595328B (zh) * | 2020-06-01 | 2023-04-25 | 四川阿泰因机器人智能装备有限公司 | 基于深度相机的真实障碍物地图构建和导航方法及系统 |
CN116420095A (zh) * | 2020-08-18 | 2023-07-11 | 福飒特汽车有限公司 | 用于评估传感器性能的方法和系统 |
CN112346073B (zh) * | 2020-09-25 | 2023-07-11 | 中山大学 | 一种动态视觉传感器与激光雷达数据融合方法 |
US11885886B2 (en) | 2020-10-23 | 2024-01-30 | Ford Global Technologies, Llc | Systems and methods for camera-LiDAR fused object detection with LiDAR-to-image detection matching |
US11430224B2 (en) | 2020-10-23 | 2022-08-30 | Argo AI, LLC | Systems and methods for camera-LiDAR fused object detection with segment filtering |
CN112363158B (zh) * | 2020-10-23 | 2024-03-12 | 浙江华睿科技股份有限公司 | 机器人的位姿估计方法、机器人和计算机存储介质 |
DE112021005607T5 (de) * | 2020-10-23 | 2023-08-24 | Ford Global Technologies, Llc | Systeme und Verfahren für kamera-LiDAR-fusionierte Objektdetektion |
CN112324893B (zh) * | 2020-10-30 | 2022-10-11 | 重庆长安汽车股份有限公司 | 一种自动变速器油位监测系统及监测方法 |
US20220176988A1 (en) * | 2020-12-09 | 2022-06-09 | Zoox, Inc. | Determining inputs for perception system |
CN112509050B (zh) * | 2020-12-18 | 2023-04-07 | 武汉库柏特科技有限公司 | 一种位姿估计方法、防碰撞抓物方法和装置 |
US11836990B2 (en) * | 2022-03-18 | 2023-12-05 | GM Global Technology Operations LLC | Methods and systems for two-phase camera to lidar alignment |
US20220326382A1 (en) * | 2021-04-09 | 2022-10-13 | Motional Ad Llc | Adaptive point cloud generation for autonomous vehicles |
WO2023022894A1 (en) * | 2021-08-18 | 2023-02-23 | Zoox, Inc. | Determining occupancy using unobstructed sensor emissions |
US20230059808A1 (en) * | 2021-08-18 | 2023-02-23 | Zoox, Inc. | Determining object characteristics using unobstructed sensor emissions |
US20230058731A1 (en) * | 2021-08-18 | 2023-02-23 | Zoox, Inc. | Determining occupancy using unobstructed sensor emissions |
US11764806B2 (en) | 2021-09-06 | 2023-09-19 | Nec Corporation | Data compression system and method of using |
SE2250674A1 (en) * | 2022-06-03 | 2023-12-04 | Tobii Ab | Method of estimating a three-dimensional position of an object |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150015569A1 (en) | 2013-07-15 | 2015-01-15 | Samsung Electronics Co., Ltd. | Method and apparatus for processing depth image |
US9369689B1 (en) | 2015-02-24 | 2016-06-14 | HypeVR | Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video |
JP2016189184A (ja) | 2015-03-11 | 2016-11-04 | ザ・ボーイング・カンパニーThe Boeing Company | リアルタイム多次元画像融合 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006135806A2 (en) * | 2005-06-09 | 2006-12-21 | Chemimage Corporation | Forensic integrated search technology |
US8027029B2 (en) * | 2007-11-07 | 2011-09-27 | Magna Electronics Inc. | Object detection and tracking system |
US20100235129A1 (en) * | 2009-03-10 | 2010-09-16 | Honeywell International Inc. | Calibration of multi-sensor system |
US8401225B2 (en) * | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Moving object segmentation using depth images |
CN103745441A (zh) * | 2014-01-08 | 2014-04-23 | 河海大学 | 一种机载LiDAR点云滤波方法 |
CN104933392A (zh) * | 2014-03-19 | 2015-09-23 | 通用汽车环球科技运作有限责任公司 | 使用多视图融合的概率性人追踪 |
US9773155B2 (en) * | 2014-10-14 | 2017-09-26 | Microsoft Technology Licensing, Llc | Depth from time of flight camera |
CN104866864A (zh) * | 2015-05-07 | 2015-08-26 | 天津大学 | 一种用于立体图像质量客观评价的极端学习机 |
US10170157B2 (en) * | 2015-06-07 | 2019-01-01 | Apple Inc. | Method and apparatus for finding and using video portions that are relevant to adjacent still images |
KR101835434B1 (ko) * | 2015-07-08 | 2018-03-09 | 고려대학교 산학협력단 | 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법 |
US9792687B2 (en) * | 2015-08-31 | 2017-10-17 | Intel Corporation | Point-to-point distance measurements in 3D camera images |
US10859395B2 (en) | 2016-12-30 | 2020-12-08 | DeepMap Inc. | Lane line creation for high definition maps for autonomous vehicles |
US10671082B2 (en) * | 2017-07-03 | 2020-06-02 | Baidu Usa Llc | High resolution 3D point clouds generation based on CNN and CRF models |
US10706505B2 (en) * | 2018-01-24 | 2020-07-07 | GM Global Technology Operations LLC | Method and system for generating a range image using sparse depth data |
US10726567B2 (en) | 2018-05-03 | 2020-07-28 | Zoox, Inc. | Associating LIDAR data and image data |
-
2018
- 2018-05-03 US US15/970,838 patent/US10726567B2/en active Active
-
2019
- 2019-04-23 EP EP19730984.2A patent/EP3788597A1/en active Pending
- 2019-04-23 CN CN202410383689.4A patent/CN118115557A/zh active Pending
- 2019-04-23 JP JP2020561676A patent/JP7345504B2/ja active Active
- 2019-04-23 WO PCT/US2019/028819 patent/WO2019212811A1/en active Application Filing
- 2019-04-23 CN CN201980042209.5A patent/CN112292711B/zh active Active
-
2020
- 2020-07-27 US US16/940,216 patent/US11816852B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150015569A1 (en) | 2013-07-15 | 2015-01-15 | Samsung Electronics Co., Ltd. | Method and apparatus for processing depth image |
US9369689B1 (en) | 2015-02-24 | 2016-06-14 | HypeVR | Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video |
JP2016189184A (ja) | 2015-03-11 | 2016-11-04 | ザ・ボーイング・カンパニーThe Boeing Company | リアルタイム多次元画像融合 |
Also Published As
Publication number | Publication date |
---|---|
CN112292711A (zh) | 2021-01-29 |
EP3788597A1 (en) | 2021-03-10 |
WO2019212811A1 (en) | 2019-11-07 |
JP2021523443A (ja) | 2021-09-02 |
CN112292711B (zh) | 2024-04-09 |
US11816852B2 (en) | 2023-11-14 |
US10726567B2 (en) | 2020-07-28 |
CN118115557A (zh) | 2024-05-31 |
US20210104056A1 (en) | 2021-04-08 |
US20190340775A1 (en) | 2019-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7345504B2 (ja) | Lidarデータと画像データの関連付け | |
US11915502B2 (en) | Systems and methods for depth map sampling | |
US11205298B2 (en) | Method and system for creating a virtual 3D model | |
US20240112051A1 (en) | Machine learning models operating at different frequencies for autonomous vehicles | |
US11064178B2 (en) | Deep virtual stereo odometry | |
KR20200022001A (ko) | 희귀 인스턴스 분류기들 | |
US20210064913A1 (en) | Driving assistant system, electronic device, and operation method thereof | |
CN110609562B (zh) | 一种图像信息采集方法和装置 | |
JP2021528732A (ja) | 運動物体検出およびスマート運転制御方法、装置、媒体、並びに機器 | |
CN113096151B (zh) | 对目标的运动信息进行检测的方法和装置、设备和介质 | |
EP3703008A1 (en) | Object detection and 3d box fitting | |
CN114648639B (zh) | 一种目标车辆的检测方法、系统及装置 | |
US20230105331A1 (en) | Methods and systems for semantic scene completion for sparse 3d data | |
Guo et al. | HawkDrive: A Transformer-driven Visual Perception System for Autonomous Driving in Night Scene | |
RU2776814C1 (ru) | Способ и электронное устройство для обнаружения трехмерных объектов с помощью нейронных сетей | |
CN114723955B (zh) | 图像处理方法、装置、设备和计算机可读存储介质 | |
CN116778262B (zh) | 一种基于虚拟点云的三维目标检测方法和系统 | |
Smith et al. | A scene segmenter; visual tracking of moving vehicles | |
US11443147B2 (en) | Systems and methods for object detection using stereovision information | |
KR102559936B1 (ko) | 단안 카메라를 이용하여 깊이 정보를 추정하는 방법 및 장치 | |
CN117606500A (zh) | 减速带检测方法、通过方法、网络训练方法及相关装置 | |
CN114723955A (zh) | 图像处理方法、装置、设备和计算机可读存储介质 | |
JP2020077297A (ja) | 位置姿勢推定装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230516 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230808 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230905 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7345504 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |