JP2022541656A - 自由空間推定のためのシステムおよび方法 - Google Patents
自由空間推定のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2022541656A JP2022541656A JP2022505280A JP2022505280A JP2022541656A JP 2022541656 A JP2022541656 A JP 2022541656A JP 2022505280 A JP2022505280 A JP 2022505280A JP 2022505280 A JP2022505280 A JP 2022505280A JP 2022541656 A JP2022541656 A JP 2022541656A
- Authority
- JP
- Japan
- Prior art keywords
- cell
- point
- sensor
- obstacle
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 92
- 238000005259 measurement Methods 0.000 claims description 30
- 230000001131 transforming effect Effects 0.000 claims description 19
- 239000011159 matrix material Substances 0.000 claims description 14
- 238000013519 translation Methods 0.000 claims description 14
- 238000001914 filtration Methods 0.000 claims description 10
- 238000002372 labelling Methods 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 description 7
- 230000005484 gravity Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
- B60W60/0016—Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3346—Query execution using probabilistic model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/11—Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/50—Barriers
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Databases & Information Systems (AREA)
- Mathematical Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Operations Research (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Algebra (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Alarm Systems (AREA)
- Debugging And Monitoring (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Description
本特許出願は、参照することによってその全体として本明細書に組み込まれる、2019年7月26日に出願され、「System and Method for Free Space Estimation」と題された、米国仮特許出願第62/879,391号(弁理士整理番号第AA027号)の利益を主張する。
本教示のシステムおよび方法は、リアルタイムで自律車両を囲繞する自由空間を推定することができる。
d=第2の距離であり、
Zt=第1の距離であり、
σ=Zt 2×0.001である。
例えば、Zt=10メートルであり、d=7メートルであり、初期確率=0.3である場合を検討する。この場合では、σ=0.1であり、exp値は、約0であり、雑音係数は、約0になる。一方、センサと観察との間の距離が、センサとセルとの間の距離により近接する場合、雑音係数は、非ゼロになるであろう。例えば、Zt=10メートルであり、d=9.9メートルであり、測定有意性=0.09であり、初期確率=0.3である場合、σ=0.1であり、exp値は、0.6065である。
abs(D2-D1)>0.08×2×A
式中、
P1=最後の良好な点であり、
P3=試験されている点であり、
P2/P3=連続する点であり、
D1=P2とセンサとの間の距離であり、
D2=P3とセンサとの間の距離であり、
2=最後の良好な点以降の点の数であり、
A=(D1+D2)/2である。
a’x+b’y+c’z+d’=0 (8)
接地平面が、全ての方向において見出されない場合では、対応する方向における以前に使用された平面が、以前に使用された平面が、古くならない限り、再使用されることができる。古いカウントが、平面毎に維持されることができ、以前に使用された平面が、これが、その古いカウントを超えていない場合、および新しい平面が、その方向において利用可能ではない場合、再使用されることができる。平面係数a=0、b=0、c=1、z+d=0であり、dが、LIDARとベースリンクフレームとの間のzにおける平行移動から取得される、X/Y平面が、デフォルトで前部、左、右、および後部における平面のリストに付加される。これは、いかなる接地平面も検出されないときの事例に関するフェイルセーフ条件として実施される。
-閾値≦a’xbl+b’ybl+c’zbl+d’≦+閾値 (9)
上記の条件が、満たされる場合、点xbl、ybl、zblは、グリッドマップ333上の自由空間を表すと考えられる。そうでなければ、点xbl、ybl、zblは、グリッドマップ333上の障害物を表すと考えられる。xbl、ybl場所のグリッドマップ333は、方程式(9)を実行した結果に基づいて更新されることができる。特に、条件が、満たされる場合、グリッドマップ333上の点xbl、yblにおける値は、変化しないままである。条件が、満たされない場合、グリッドマップ333上の点xbl、yblにおける障害物の数は、1だけ更新され、障害物の高さは、zblの値だけ更新される。いくつかの構成では、閾値は、4~10インチ(0.102m~0.254m)の範囲を含むことができる。いくつかの構成では、閾値は、8インチ(0.203m)を含むことができる。
pMapCell=pOccR+noiseFactor
式中、pOccR=POnObstacle=0.5であり、
noiseFactor=((measurementSignificance/(noiseStdDev×Root of 2Pi))+POnObstacle-pOccR)×gausianNoiseExponentialであり、
noiseStdDev=z_t×LidarNoiseの二乗であり、
LidarNoiseは、実験定数であり、
gausianNoiseExponential=pow(EXP, (-0.5×pow(((d2Cell-z_t)/noiseStdDev), 2)))であり、
z_t=自律車両から障害物までのユークリッド距離であり、
d2cell=自律車両からセルまでのユークリッド距離であり、
measurementSignificance=BaseSignificance×(HeightNormalizer×Total_Obstacle_Height)である。
自律車両が、障害物を含有するセルの前方の、またはそれを越えたセルに遭遇するとき、以下である。
pMapCell=pOccR+noiseFactor
式中、pOccR=PMin=0.5であり、
noiseFactor=((measurementSignificance/(noiseStdDev×Root of 2Pi))+POnObstacle-pOccR)×gausianNoiseExponentialであり、
noiseStdDev=z_t×LidarNoiseの二乗であり、
LidarNoiseは、実験定数であり、
gausianNoiseExponential=pow(EXP, (-0.5×pow(((d2Cell-z_t)/noiseStdDev), 2)))であり、
z_t=自律車両から障害物までのユークリッド距離であり、
d2cell=自律車両からセルまでのユークリッド距離であり、
measurementSignificance=BaseSignificanceである。
自律車両が、最後の障害物を越えたセルに遭遇するとき、またはセルが、LIDARから利用可能な最後の測定値を越える、例えば、境界328を越える、または点xout、yout330にあるとき、以下である。
pMapCell=1.0(無限対数オッズにおける結果)
いくつかの構成では、BaseSignificanceおよびHeightNormalizerは、経験的に決定されることができる。いくつかの構成では、BaseSignificance=0.09であり、HeightNormalizer=28.2である。
自律車両からセルまでの距離が、センサのブラインドスポット内にあるとき、pMapCell=0.9であり、
セルと自律車両との間の線が、障害物のうちのいずれも含まないとき、pMapCell=0.3であり、
全ての他のセルに関してpMapCell=0.5であり、
自律車両と空間的に一致するセルが、障害物を含むとき、pMapCell=pOccR+noiseFactorであり、
式中、pOccR=POnObstacle=0.5であり、
noiseFactor=((measurementSignificance/(noiseStdDev×Root of 2Pi))+POnObstacle-pOccR)×gausianNoiseExponentialであり、
noiseStdDev=z_t×LidarNoiseの二乗であり、
gausianNoiseExponential=pow(EXP, (-0.5×pow(((d2Cell-z_t)/noiseStdDev), 2)))であり、
z_t=自律車両から障害物までのユークリッド距離であり、
d2cell=自律車両からセルまでのユークリッド距離であり、
measurementSignificance=BaseSignificance×(HeightNormalizer×Total_Obstacle_Height)であり、
LidarNoise、BaseSignificance、およびHeightNormalizerは、少なくとも自律車両およびセンサの構成に基づく値を含み、
線に沿って空間的に自律車両の前にある、またはそれを越えるようにあるセルが、障害物を含むとき、pMapCell=pOccR+noiseFactorであり、
式中、pOccR=PMin=0.5であり、
noiseFactor=((measurementSignificance/(noiseStdDev×Root of 2Pi))+POnObstacle-pOccR)×gausianNoiseExponentialであり、
noiseStdDev=z_t×LidarNoiseの二乗であり、
LidarNoiseは、実験定数であり、
gausianNoiseExponential=pow(EXP, (-0.5×pow(((d2Cell-z_t)/noiseStdDev), 2)))であり、
z_t=自律車両から障害物までのユークリッド距離であり、
d2cell=自律車両からセルまでのユークリッド距離であり、
measurementSignificance=BaseSignificanceであり、
LidarNoise、BaseSignificance、およびHeightNormalizerは、値を含み、
セルが、障害物の最後のものを越えて、または点群データの最後のものを越えて線に沿うように空間的にあるとき、pMapCell=1.0である、
コンピュータ命令を含む、実行可能コードを含むことができる。
BaseSignificanceは、随意に、0.09に等しくあり得る。HeightNormalizerは、随意に、28.2に等しくあり得る。
Claims (48)
- 点群データにおける自由空間確率を割り当てるための方法であって、前記点群データは、表面上で進行する自律車両と関連付けられ、前記方法は、
センサから前記点群データを受信することであって、前記センサは、センサビームを有し、前記センサビームは、少なくとも前記センサから前記表面に投影される、ことと、
前記点群データを第1の事前選択されたサイズのセグメントにセグメント化することと、
前記点群データ内の平面、前記平面内の平面点、および前記平面点のうちの少なくとも1つと関連付けられる非平面点を位置特定することと、
前記平面点に対する法線を決定し、前記平面点と関連付けられる前記非平面点を決定することと、
少なくとも前記法線および前記センサの場所に基づいて、事前選択された基準に従って、前記平面のうちの少なくとも1つを表面平面として選定することと、
少なくとも前記関連付けられる非平面点に基づいて、前記平面点のそれぞれを障害物点として分類することと、
少なくとも前記非平面点に基づいて、前記障害物点と関連付けられる障害物高を決定することと、
前記表面平面からグリッドを作成することであって、前記グリッドは、事前選択された数のセルと、外周とを有する、ことと、
少なくとも前記セル内の前記障害物高に基づいて、前記セル毎の測定有意性を算出することと、
少なくとも前記センサビームと前記表面平面との間の交点に基づいて、前記センサからのブラインド距離を決定することと、
前記ブラインド距離と前記外周との間の各線に沿った前記セル毎に、前記線に沿った前記セルを占有する障害物の初期確率を算出することであって、前記初期確率は、少なくとも、前記センサの可用性、前記セル内の前記障害物点、および前記センサに対する前記線に沿った前記セルの位置に基づく、ことと、
前記ブラインド距離と前記外周との間の各線に沿った前記セル毎に、少なくとも、前記センサと前記セル内の前記線に沿った前記障害物の最近接するものとの間の第1の距離、前記センサと前記線に沿った前記セルとの間の第2の距離、前記線に沿った前記セルに関する前記測定有意性、前記線に沿った前記セルに関する前記初期確率、およびデフォルト確率に基づいて、雑音係数を算出することと、
前記ブラインド距離と前記外周との間の各線に沿った前記セル毎に、前記線に沿った前記セルを占有する前記障害物の現在の確率を算出することであって、前記現在の確率は、少なくとも、前記セルに関する前記初期確率および前記セルに関する前記雑音係数に基づく、ことと
を含む、方法。 - 前記第1の事前選択されたサイズは、約40m×40m×2mを備える、請求項1に記載の方法。
- 前記事前選択された基準は、前記平面の法線が、前記センサに向いていないとき、前記表面平面を選定することを含む、請求項1に記載の方法。
- 前記事前選択された数のセルは、400×400個を備える、請求項1に記載の方法。
- 前記初期確率を算出することは、
前記センサが、利用不可能であり、前記セルが、近傍のセルである場合、前記近傍のセルは、前記ブラインド距離の近傍にあり、前記セルの初期確率=1.0であることと、
前記センサが、利用不可能であり、前記セルが、前記近傍のセルと前記外周との間にある場合、前記セルの初期確率=0.5であることと、
前記センサが、利用可能であり、前記セル内に前記障害物点のうちの少なくとも1つが存在する場合、または以前に遭遇された前記線に沿った前記セルのうちの1つが、前記障害物点のうちの少なくとも1つを含んでいた場合、前記セルの初期確率=0.5であることと、
前記センサが、利用可能であり、前記セル内に前記障害物点のうちのいずれも存在せず、前記線に沿った以前に遭遇された前記セルのうちのいずれも、前記障害物点のうちの少なくとも1つを含んでいなかった場合、前記セルの初期確率=0.3であることと
を含む、請求項1に記載の方法。 - 前記現在の確率を算出することは、
前記セルに関する前記雑音係数+前記セルの初期確率
を含む、請求項1に記載の方法。 - 前記平面はそれぞれ、前記平面から第1の事前選択された距離までの前記非平面点を備える、請求項1に記載の方法。
- 前記第1の事前選択された距離は、2mを備える、請求項8に記載の方法。
- 点群データにおける自由空間確率を割り当てるためのシステムであって、前記点群データは、表面上で進行する自律車両と関連付けられ、前記システムは、
センサビームを有するセンサであって、前記センサビームは、少なくとも前記センサから前記表面に投影される、センサと、
前記センサから前記点群データを受信するセグメントプロセッサであって、前記セグメントプロセッサは、前記点群データを第1の事前選択されたサイズのセグメントにセグメント化する、セグメントプロセッサと、
前記点群データ内で、平面、前記平面内の平面点、および前記平面点のうちの少なくとも1つと関連付けられる非平面点を位置特定する平面プロセッサと、
前記平面点に対する法線を決定し、前記平面点と関連付けられる前記非平面点を決定する法線プロセッサであって、前記法線プロセッサは、少なくとも前記法線および前記センサの場所に基づいて、事前選択された基準に従って、前記平面のうちの少なくとも1つを表面平面として選定し、前記法線プロセッサは、少なくとも前記関連付けられる非平面点に基づいて、前記平面点のそれぞれを障害物点として分類し、前記法線プロセッサは、少なくとも前記非平面点に基づいて、前記障害物点と関連付けられる障害物高を決定する、法線プロセッサと、
前記表面平面からグリッドを作成するグリッドプロセッサであって、前記グリッドは、事前選択された数のセルと、外周とを有する、グリッドプロセッサと、
線掃引プロセッサであって、前記線掃引プロセッサは、少なくとも前記セル内の前記障害物高に基づいて、前記セル毎の測定有意性を算出する測定有意性プロセッサを含み、前記線掃引プロセッサは、
初期確率プロセッサであって、前記初期確率プロセッサは、少なくとも前記センサビームと前記表面平面との間の交点に基づいて、前記センサからのブラインド距離を決定し、前記初期確率プロセッサは、前記ブラインド距離と前記外周との間の各線に沿った前記セル毎に、前記線に沿った前記セルを占有する障害物の初期確率を算出することであって、前記初期確率は、少なくとも、前記センサの可用性、前記セル内の前記障害物点、および前記センサに対する前記線に沿った前記セルの位置に基づく、ことを含む、初期確率プロセッサと、
雑音係数プロセッサであって、前記雑音係数プロセッサは、前記ブラインド距離と前記外周との間の各線に沿った前記セル毎に、少なくとも、前記センサと前記セル内の前記線に沿った前記障害物の最近接するものとの間の第1の距離、前記センサと前記線に沿った前記セルとの間の第2の距離、前記線に沿った前記セルに関する前記測定有意性、前記線に沿った前記セルに関する前記初期確率、およびデフォルト確率に基づいて、雑音係数を算出することを含む、雑音係数プロセッサと、
現在の確率プロセッサであって、前記現在の確率プロセッサは、前記ブラインド距離と前記外周との間の各線に沿った前記セル毎に、前記線に沿った前記セルを占有する前記障害物点の現在の確率を算出することであって、前記現在の確率は、少なくとも、前記セルに関する前記初期確率および前記セルに関する前記雑音係数に基づく、ことを含む、現在の確率プロセッサと
を含む、線掃引プロセッサと
を備える、システム。 - センサデータにおける自由空間確率を割り当てるための方法であって、前記センサデータは、表面上で進行する自律車両と関連付けられ、前記方法は、
前記センサデータにおける少なくとも1つの表面平面を決定することであって、前記少なくとも1つの表面平面は、前記表面と関連付けられる、ことと、
前記少なくとも1つの表面平面と関連付けられる前記センサデータにおいて、存在する場合、障害物を決定し、存在する場合、前記障害物の高さを決定することと、
少なくとも前記自律車両の寸法に基づいて、前記自律車両からのブラインド距離を決定することと、
前記少なくとも1つの表面平面上にグリッドを作成することであって、前記グリッドは、事前選択された数のセルと、外周とを有する、ことと、
前記ブラインド距離と前記外周との間の前記少なくとも1つの表面平面上の各線に沿った前記セル毎に、前記線に沿った前記セルを占有する前記障害物の初期確率を算出することであって、前記初期確率は、少なくとも、前記センサデータの可用性、前記セル内の前記障害物、および前記自律車両に対する前記線に沿った前記セルの位置に基づく、ことと、
前記ブラインド距離と前記外周との間の各線に沿った前記セル毎に、少なくとも、前記自律車両と前記セル内の前記線に沿った前記障害物の最近接するものとの間の第1の距離、前記自律車両と前記線に沿った前記セルとの間の第2の距離、前記線に沿った前記セルに関する前記障害物高、前記線に沿った前記セルに関する前記初期確率、およびデフォルト確率に基づいて、雑音係数を算出することと、
前記ブラインド距離と前記外周との間の各線に沿った前記セル毎に、前記線に沿った前記セルを占有する前記障害物の現在の確率を算出することであって、前記現在の確率は、少なくとも、前記セルに関する前記初期確率および前記セルに関する前記雑音係数に基づく、ことと
を含む、方法。 - 前記事前選択された数のセルは、400×400個を備える、請求項11に記載の方法。
- 前記初期確率を算出することは、
前記センサデータが、利用不可能であり、前記セルが、近傍のセルである場合、前記近傍のセルは、前記ブラインド距離の近傍にあり、前記セルの初期確率=1.0であることと、
前記センサデータが、利用不可能であり、前記セルが、前記近傍のセルと前記外周との間にある場合、前記セルの初期確率=0.5であることと、
前記センサデータが、利用可能であり、前記セル内に前記障害物のうちの少なくとも1つが、存在する場合、または以前に遭遇された前記線に沿った前記セルのうちの1つが、前記障害物のうちの少なくとも1つを含んでいた場合、前記セルの初期確率=0.5であることと、
前記センサデータが、利用可能であり、前記セル内に前記障害物のうちのいずれも、存在せず、前記線に沿った以前に遭遇された前記セルのうちのいずれも、障害物のうちの少なくとも1つを含んでいなかった場合、前記セルの初期確率=0.3であることと
を含む、請求項11に記載の方法。 - 前記現在の確率を算出することは、
前記セルに関する前記雑音係数+前記セルの初期確率
を含む、請求項11に記載の方法。 - 前記少なくとも1つの表面平面は、前記少なくとも1つの表面平面からの第1の事前選択された距離までの非平面点を備える、請求項11に記載の方法。
- 前記第1の事前選択された距離は、2mを備える、請求項16に記載の方法。
- 少なくとも前記非平面点に基づいて、前記障害物高を決定することをさらに含む、請求項16に記載の方法。
- 自律車両に関するナビゲーション経路における自由空間を決定するための方法であって、前記方法は、
センサから受信される点群データから接地平面を決定することであって、前記接地平面はそれぞれ、接地平面方程式と関連付けられ、前記センサは、センサ基準フレームを有する、ことと、
前記接地平面方程式を前記センサ基準フレームから前記自律車両と関連付けられる車両基準フレームに変換することと、
前記点群データ内の点を前記センサ基準フレームから前記車両基準フレームに変換することと、
前記変換された点が、前記変換された接地平面方程式を満たす場合、前記点群データ内の点を自由空間として標識化することと、
少なくとも前記標識化された点に基づいて、占有グリッドを拡張するために、占有グリッドデータを提供することと
を含む、方法。 - 前記接地平面を決定することは、
前記点群データの少なくとも2つのリングの中央値を算出することと、
少なくとも前記中央値からの前記点群データ内の前記点の距離に基づいて、前記点群データをフィルタリングすることと、
前記フィルタリングされた点群データから平面を作成することであって、前記作成された平面はそれぞれ、少なくとも1つの方位角を有する、ことと、
前記少なくとも1つの方位角に沿って前記自律車両から離れるように延在する前記点群データからの前記作成された平面を拡大させることと、
少なくとも前記作成された平面のそれぞれの配向および残留誤差に基づいて、前記拡大された平面から前記接地平面を選定することと
を含む、請求項19に記載の方法。 - 前記平面を作成することは、
センサデータの第1のリングから第1の点および第2の点を選択することであって、前記第1の点および前記第2の点は、前記第1のリング上の前記点群データの不連続性によって形成される境界内に位置し、前記第1の点は、第1の方位角を有し、前記第2の点は、第2の方位角を有する、ことと、
センサデータの第2のリングから第3の点を選択することであって、前記第2のリングは、前記第1のリングに隣接し、前記第3の点は、前記第1の方位角と前記第2の方位角との間の第3の方位角を有する、ことと、
前記第1の点と、前記第2の点と、前記第3の点とを含む前記平面のうちの1つを作成することと
を含む、請求項20に記載の方法。 - 前記接地平面のうちのいずれも、決定されることができないとき、デフォルト平面を代用することをさらに含む、請求項19に記載の方法。
- 前記点が、前記自律車両からの事前選択された距離を超える場合、前記点群データから前記点を除去することをさらに含む、請求項19に記載の方法。
- 前記点が、少なくとも前記自律車両の車両高に基づく事前選択された高さを超える場合、前記点群データから前記点を除去することをさらに含む、請求項19に記載の方法。
- 前記点が、前記自律車両からの事前選択された距離内にある場合、前記点群データから前記点を除去することをさらに含む、請求項19に記載の方法。
- 前記接地平面を変換することは、
前記接地平面方程式の係数から単位ベクトルを算出することであって、前記接地平面方程式は、ax+by+cz+d=0を含み、前記係数は、a、b、およびcを含み、定数は、dを含む、ことと、
前記d定数を正規化することと、
回転/平行移動行列および前記単位ベクトルに基づいて、前記接地平面方程式のa、b、c係数を変換することと、
前記正規化されたd定数、前記回転/平行移動行列、前記単位ベクトル、および前記変換されたa、b、c係数に基づいて、前記正規化されたd定数を変換することと
を含む、請求項19に記載の方法。 - 点を標識化することは、
前記変換された点群点のそれぞれを前記変換された接地平面方程式に代入することと、
前記変換された点群点が、前記変換された接地平面方程式、すなわち、
-閾値≦a’x+b’y+c’z+d’≦+閾値
を満たす場合、前記変換された点群点を自由空間として個々に標識化することと
を含む、請求項27に記載の方法。 - 占有グリッドデータを提供することは、
少なくとも前記変換された接地平面方程式からの結果に基づいて、前記変換された点群点に対応するグリッドマップ上の場所を更新することと、
少なくとも前記グリッドマップに基づいて、前記占有グリッド内のセルが前記障害物を含む確率を算出することと
を含む、請求項28に記載の方法。 - 占有グリッドデータを提供することは、
少なくとも前記変換された接地平面方程式からの結果に基づいて、前記変換された点群点に対応するグリッドマップ上の場所を更新することと、
少なくとも、前記グリッドマップ、センサ雑音、および前記障害物の高さに基づいて、前記占有グリッド内のセルが障害物を含む確率を算出することと
を含む、請求項28に記載の方法。 - 占有グリッドデータを提供することは、
少なくとも前記変換された接地平面方程式からの結果に基づいて、前記変換された点群点に対応するグリッドマップ上の場所を更新することと、
以下に従って、前記占有グリッド内のセルが障害物を含む確率を算出することと
式中、
前記自律車両から前記セルまでの距離が、前記センサのブラインドスポット内にあるとき、pMapCell=0.9であり、
前記セルと前記自律車両との間の線が、前記障害物のうちのいずれも含まないとき、pMapCell=0.3であり、
全ての他のセルに関してpMapCell=0.5であり、
前記自律車両と空間的に一致する前記セルが、前記障害物を含むとき、pMapCell=pOccR+noiseFactorであり、
式中、pOccR=POnObstacle=0.5であり、
noiseFactor=((measurementSignificance/(noiseStdDev×Root of 2Pi))+POnObstacle-pOccR)×gausianNoiseExponentialであり、
noiseStdDev=z_t×LidarNoiseの二乗であり、
gausianNoiseExponential=pow(EXP, (-0.5×pow(((d2Cell-z_t)/noiseStdDev), 2)))であり、
z_t=前記自律車両から前記障害物までのユークリッド距離であり、
d2cell=前記自律車両から前記セルまでのユークリッド距離であり、
measurementSignificance=BaseSignificance×(HeightNormalizer×Total_Obstacle_Height)であり、
LidarNoise、BaseSignificance、およびHeightNormalizerは、少なくとも前記自律車両および前記センサの構成に基づく値を含み、
前記線に沿って空間的に前記自律車両の前にある、またはそれを越えるようにある前記セルが、前記障害物を含むとき、pMapCell=pOccR+noiseFactorであり、
式中、pOccR=PMin=0.5であり、
noiseFactor=((measurementSignificance/(noiseStdDev×Root of 2Pi))+POnObstacle-pOccR)×gausianNoiseExponentialであり、
noiseStdDev=z_t×LidarNoiseの二乗であり、
LidarNoiseは、実験定数であり、
gausianNoiseExponential=pow(EXP, (-0.5×pow(((d2Cell-z_t)/noiseStdDev), 2)))であり、
z_t=前記自律車両から前記障害物までのユークリッド距離であり、
d2cell=前記自律車両から前記セルまでのユークリッド距離であり、
measurementSignificance=BaseSignificanceであり、
LidarNoise、BaseSignificance、およびHeightNormalizerは、前記値を含み、
前記セルが、前記障害物の最後のものを越えて、または前記点群データの最後のものを越えて前記線に沿うように空間的にあるとき、pMapCell=1.0である、
請求項28に記載の方法。 - BaseSignificanceは、0.09を備える、請求項31に記載の方法。
- HeightNormalizerは、28.2を備える、請求項31に記載の方法。
- 自律車両に関するナビゲーション経路における自由空間を決定するためのシステムであって、前記システムは、
センサから受信される点群データから接地平面を決定する接地平面プロセッサであって、前記接地平面はそれぞれ、接地平面方程式と関連付けられ、前記センサは、センサ基準フレームを有する、接地平面プロセッサと、
前記接地平面方程式を前記センサ基準フレームから前記自律車両と関連付けられる車両基準フレームに変換する平面変換プロセッサと、
前記点群データ内の点を前記センサ基準フレームから前記車両基準フレームに変換する点変換プロセッサと、
前記変換された点が、前記変換された接地平面方程式を満たす場合、前記点群データ内の点を自由空間として標識化する点標識化プロセッサと、
少なくとも前記標識化された点に基づいて、占有グリッドを拡張するために、占有グリッドデータを提供する確率プロセッサと
を備える、システム。 - 前記接地平面プロセッサは、
前記点群データの少なくとも2つのリングの中央値を算出する中央値プロセッサと、
少なくとも前記中央値からの前記点群データ内の前記点の距離に基づいて、前記点群データをフィルタリングする点群フィルタと、
前記フィルタリングされた点群データから平面を作成する平面作成プロセッサであって、前記作成された平面はそれぞれ、少なくとも1つの方位角を有する、平面作成プロセッサと、
前記少なくとも1つの方位角に沿って前記自律車両から離れるように延在する前記点群データからの前記作成された平面を拡大させる平面拡大プロセッサと、
少なくとも前記作成された平面のそれぞれの配向および残留誤差に基づいて、前記拡大された平面から前記接地平面を選定する選択プロセッサと
を備える、請求項34に記載のシステム。 - 前記平面作成プロセッサは、
センサデータの第1のリングから第1の点および第2の点を選択することであって、前記第1の点および前記第2の点は、前記第1のリング上の前記点群データの不連続性によって形成される境界内に位置し、前記第1の点は、第1の方位角を有し、前記第2の点は、第2の方位角を有する、ことと、
センサデータの第2のリングから第3の点を選択することであって、前記第2のリングは、前記第1のリングに隣接し、前記第3の点は、前記第1の方位角と前記第2の方位角との間の第3の方位角を有する、ことと、
前記第1の点と、前記第2の点と、前記第3の点とを含む前記平面のうちの1つを作成することと
を行うコンピュータ命令を含む実行可能コードを備える、請求項35に記載のシステム。 - 前記接地平面のうちのいずれも、決定されることができないとき、デフォルト平面を代用するコンピュータ命令を含む実行可能コードをさらに備える、請求項34に記載のシステム。
- 前記点が、前記自律車両からの事前選択された距離を超える場合、前記点群データから前記点を除去するコンピュータ命令を含む実行可能コードをさらに備える、請求項34に記載のシステム。
- 前記点が、少なくとも前記自律車両の車両高に基づく事前選択された高さを超える場合、前記点群データから前記点を除去するコンピュータ命令を含む実行可能コードをさらに備える、請求項34に記載のシステム。
- 前記点が、前記自律車両からの事前選択された距離内にある場合、前記点群データから前記点を除去するコンピュータ命令を含む実行可能コードをさらに備える、請求項34に記載のシステム。
- 前記接地平面を変換することは、
前記接地平面方程式の係数から単位ベクトルを算出することであって、前記接地平面方程式は、ax+by+cz+d=0を含み、前記係数は、a、b、およびcを含み、定数は、dを含む、ことと、
前記d定数を正規化することと、
回転/平行移動行列および前記単位ベクトルに基づいて、前記接地平面方程式のa、b、c係数を変換することと、
前記正規化されたd定数、前記回転/平行移動行列、前記単位ベクトル、および前記変換されたa、b、c係数に基づいて、前記正規化されたd定数を変換することと
を行うコンピュータ命令を含む実行可能コードを備える、請求項34に記載のシステム。 - 前記接地平面を変換することは、
以下のように前記接地平面方程式の係数から単位ベクトルを算出することであって、前記接地平面方程式は、ax+by+cz+d=0を含み、前記係数は、a、b、およびcを含み、定数は、dを含む、ことと、
- 前記点標識化プロセッサは、
前記変換された点群点のそれぞれを前記変換された接地平面方程式に代入することと、
前記変換された点群点が、前記変換された接地平面方程式、すなわち、
-閾値≦a’x+b’y+c’z+d’≦+閾値
を満たす場合、変換された点群点を自由空間として個々に標識化することと
を行うコンピュータ命令を含む実行可能コードを備える、請求項34に記載のシステム。 - 前記確率プロセッサは、
少なくとも前記変換された接地平面方程式からの結果に基づいて、前記変換された点群点に対応するグリッドマップ上の場所を更新することと、
少なくとも前記グリッドマップに基づいて、前記占有グリッド内のセルが障害物を含む確率を算出することと
を行うコンピュータ命令を含む実行可能コードを備える、請求項43に記載のシステム。 - 前記確率プロセッサは、
少なくとも前記変換された接地平面方程式からの結果に基づいて、前記変換された点群点に対応するグリッドマップ上の場所を更新することと、
少なくとも、前記グリッドマップ、センサ雑音、および前記障害物の高さに基づいて、前記占有グリッド内のセルが障害物を含む確率を算出することと
を行うコンピュータ命令を含む実行可能コードを備える、請求項43に記載のシステム。 - 前記確率プロセッサは、
少なくとも前記変換された接地平面方程式からの結果に基づいて、前記変換された点群点に対応するグリッドマップ上の場所を更新することと、
以下に従って、前記占有グリッド内のセルが障害物を含む確率を算出することと
式中、
前記自律車両から前記セルまでの距離が、前記センサのブラインドスポット内にあるとき、pMapCell=0.9であり、
前記セルと前記自律車両との間の線が、前記障害物のうちのいずれも含まないとき、pMapCell=0.3であり、
全ての他のセルに関してpMapCell=0.5であり、
前記自律車両と空間的に一致する前記セルが、前記障害物を含むとき、pMapCell=pOccR+noiseFactorであり、
式中、pOccR=POnObstacle=0.5であり、
noiseFactor=((measurementSignificance/(noiseStdDev×Root of 2Pi))+POnObstacle-pOccR)×gausianNoiseExponentialであり、
noiseStdDev=z_t×LidarNoiseの二乗であり、
gausianNoiseExponential=pow(EXP, (-0.5×pow(((d2Cell-z_t)/noiseStdDev), 2)))であり、
z_t=前記自律車両から前記障害物までのユークリッド距離であり、
d2cell=前記自律車両から前記セルまでのユークリッド距離であり、
measurementSignificance=BaseSignificance×(HeightNormalizer×Total_Obstacle_Height)であり、
LidarNoise、BaseSignificance、およびHeightNormalizerは、少なくとも前記自律車両および前記センサの構成に基づく値を含み、
前記線に沿って空間的に前記自律車両の前にある、またはそれを越えるようにある前記セルが、前記障害物を含むとき、pMapCell=pOccR+noiseFactorであり、
式中、pOccR=PMin=0.5であり、
noiseFactor=((measurementSignificance/(noiseStdDev×Root of 2Pi))+POnObstacle-pOccR)×gausianNoiseExponentialであり、
noiseStdDev=z_t×LidarNoiseの二乗であり、
LidarNoiseは、実験定数であり、
gausianNoiseExponential=pow(EXP, (-0.5×pow(((d2Cell-z_t)/noiseStdDev), 2)))であり、
z_t=前記自律車両から前記障害物までのユークリッド距離であり、
d2cell=前記自律車両から前記セルまでのユークリッド距離であり、
measurementSignificance=BaseSignificanceであり、
LidarNoise、BaseSignificance、およびHeightNormalizerは、前記値を含み、
前記セルが、前記障害物の最後のものを越えて、または前記点群データの最後のものを越えて前記線に沿うように空間的にあるとき、pMapCell=1.0である、請求項43に記載のシステム。 - BaseSignificanceは、0.09を備える、請求項46に記載のシステム。
- HeightNormalizerは、28.2を備える、請求項46に記載のシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023111172A JP2023118909A (ja) | 2019-07-26 | 2023-07-06 | 自由空間推定のためのシステムおよび方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962879391P | 2019-07-26 | 2019-07-26 | |
US62/879,391 | 2019-07-26 | ||
PCT/US2020/043601 WO2021021672A2 (en) | 2019-07-26 | 2020-07-24 | System and method for free space estimation |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023111172A Division JP2023118909A (ja) | 2019-07-26 | 2023-07-06 | 自由空間推定のためのシステムおよび方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022541656A true JP2022541656A (ja) | 2022-09-26 |
JPWO2021021672A5 JPWO2021021672A5 (ja) | 2023-07-14 |
JP7502411B2 JP7502411B2 (ja) | 2024-06-18 |
Family
ID=72087175
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022505280A Active JP7502411B2 (ja) | 2019-07-26 | 2020-07-24 | 自由空間推定のためのシステムおよび方法 |
JP2023111172A Pending JP2023118909A (ja) | 2019-07-26 | 2023-07-06 | 自由空間推定のためのシステムおよび方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023111172A Pending JP2023118909A (ja) | 2019-07-26 | 2023-07-06 | 自由空間推定のためのシステムおよび方法 |
Country Status (12)
Country | Link |
---|---|
US (2) | US11762061B2 (ja) |
EP (1) | EP4004584A2 (ja) |
JP (2) | JP7502411B2 (ja) |
KR (1) | KR20220041859A (ja) |
CN (1) | CN114365013A (ja) |
AU (2) | AU2020321235B2 (ja) |
BR (1) | BR112022001380A2 (ja) |
CA (1) | CA3145435A1 (ja) |
GB (1) | GB2601438B (ja) |
IL (1) | IL290083A (ja) |
MX (1) | MX2022001060A (ja) |
WO (1) | WO2021021672A2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115039129A (zh) * | 2019-12-11 | 2022-09-09 | 辉达公司 | 用于自主机器应用的表面轮廓估计和隆起检测 |
WO2022271752A1 (en) * | 2021-06-21 | 2022-12-29 | Cyngn, Inc. | Self-adaptive lidar-camera synchronization system |
EP4160925A1 (en) * | 2021-09-30 | 2023-04-05 | Beijing Xiaomi Mobile Software Co., Ltd. | Method and apparatus of encoding/decoding point cloud geometry data sensed by at least one sensor |
DE102021125653A1 (de) | 2021-10-04 | 2023-04-06 | Valeo Schalter Und Sensoren Gmbh | Entfernen nicht relevanter Punkte aus einer Punktwolke |
CN114355894B (zh) * | 2021-12-08 | 2024-07-26 | 上海擎朗智能科技有限公司 | 数据处理方法、机器人以及机器人系统 |
CN114255325B (zh) * | 2021-12-31 | 2023-07-18 | 广州极飞科技股份有限公司 | 地面模型生成、障碍数据确定、作业控制方法及相关装置 |
CN115917607A (zh) * | 2022-07-15 | 2023-04-04 | 深圳市正浩创新科技股份有限公司 | 地图构建方法、装置及存储介质 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3994950B2 (ja) | 2003-09-19 | 2007-10-24 | ソニー株式会社 | 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置 |
US9495874B1 (en) * | 2012-04-13 | 2016-11-15 | Google Inc. | Automated system and method for modeling the behavior of vehicles and other agents |
US9098754B1 (en) * | 2014-04-25 | 2015-08-04 | Google Inc. | Methods and systems for object detection using laser point clouds |
JP2016134090A (ja) | 2015-01-21 | 2016-07-25 | 株式会社東芝 | 画像処理装置及びそれを用いた運転支援システム |
US9720415B2 (en) * | 2015-11-04 | 2017-08-01 | Zoox, Inc. | Sensor-based object-detection optimization for autonomous vehicles |
JP6756124B2 (ja) * | 2016-03-16 | 2020-09-16 | 株式会社デンソー | 物体検出装置および物体検出プログラム |
JP6863027B2 (ja) * | 2016-05-10 | 2021-04-21 | 株式会社デンソー | 立体物検出処理装置 |
FR3052275A1 (fr) | 2016-06-03 | 2017-12-08 | Commissariat Energie Atomique | Procede et systeme de determination de cellules traversees par un axe de mesure ou de visualisation |
JP6804991B2 (ja) | 2017-01-05 | 2020-12-23 | 株式会社東芝 | 情報処理装置、情報処理方法、および情報処理プログラム |
EP3714291A4 (en) * | 2017-12-07 | 2021-08-11 | Ouster, Inc. | INSTALLATION AND USE OF A VEHICLE LIGHT TELEMETRY SYSTEM |
TWI652449B (zh) * | 2017-12-11 | 2019-03-01 | 財團法人車輛研究測試中心 | 三維感測器之動態地面偵測方法 |
US11022693B1 (en) * | 2018-08-03 | 2021-06-01 | GM Global Technology Operations LLC | Autonomous vehicle controlled based upon a lidar data segmentation system |
-
2020
- 2020-07-24 CA CA3145435A patent/CA3145435A1/en active Pending
- 2020-07-24 KR KR1020227005860A patent/KR20220041859A/ko unknown
- 2020-07-24 BR BR112022001380A patent/BR112022001380A2/pt unknown
- 2020-07-24 EP EP20757045.8A patent/EP4004584A2/en active Pending
- 2020-07-24 US US16/938,786 patent/US11762061B2/en active Active
- 2020-07-24 CN CN202080062625.4A patent/CN114365013A/zh active Pending
- 2020-07-24 AU AU2020321235A patent/AU2020321235B2/en active Active
- 2020-07-24 WO PCT/US2020/043601 patent/WO2021021672A2/en unknown
- 2020-07-24 JP JP2022505280A patent/JP7502411B2/ja active Active
- 2020-07-24 MX MX2022001060A patent/MX2022001060A/es unknown
- 2020-07-24 GB GB2202397.2A patent/GB2601438B/en active Active
-
2022
- 2022-01-24 IL IL290083A patent/IL290083A/en unknown
-
2023
- 2023-07-06 JP JP2023111172A patent/JP2023118909A/ja active Pending
- 2023-08-18 US US18/451,898 patent/US20230393242A1/en active Pending
-
2024
- 2024-09-25 AU AU2024220053A patent/AU2024220053A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230393242A1 (en) | 2023-12-07 |
AU2020321235A1 (en) | 2022-02-24 |
US20210026361A1 (en) | 2021-01-28 |
CA3145435A1 (en) | 2021-02-04 |
JP7502411B2 (ja) | 2024-06-18 |
GB2601438B (en) | 2024-03-06 |
MX2022001060A (es) | 2022-04-20 |
US11762061B2 (en) | 2023-09-19 |
BR112022001380A2 (pt) | 2022-06-07 |
GB2601438A (en) | 2022-06-01 |
WO2021021672A2 (en) | 2021-02-04 |
GB202202397D0 (en) | 2022-04-06 |
CN114365013A (zh) | 2022-04-15 |
KR20220041859A (ko) | 2022-04-01 |
JP2023118909A (ja) | 2023-08-25 |
EP4004584A2 (en) | 2022-06-01 |
AU2024220053A1 (en) | 2024-10-17 |
IL290083A (en) | 2022-03-01 |
AU2020321235B2 (en) | 2024-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7502411B2 (ja) | 自由空間推定のためのシステムおよび方法 | |
US10031231B2 (en) | Lidar object detection system for automated vehicles | |
US4970653A (en) | Vision method of detecting lane boundaries and obstacles | |
CN110148144A (zh) | 点云数据的分割方法和装置、存储介质、电子装置 | |
WO2022188663A1 (zh) | 一种目标检测方法及装置 | |
CN112801022A (zh) | 一种无人驾驶矿卡作业区道路边界快速检测更新的方法 | |
JP2012037490A (ja) | データ解析装置、データ解析方法、及びプログラム | |
CN111308500B (zh) | 基于单线激光雷达的障碍物感知方法、装置和计算机终端 | |
CN113632035B (zh) | 用于表面特征检测和穿越的系统和方法 | |
JP2022089828A (ja) | 情報処理装置 | |
US20240087145A1 (en) | System and Method for Aerial to Ground Registration | |
CN113887433A (zh) | 一种障碍物的检测方法、装置、计算机设备及存储介质 | |
WO2023207845A1 (zh) | 车位检测方法、装置、电子设备及机器可读存储介质 | |
US20220171975A1 (en) | Method for Determining a Semantic Free Space | |
CN114842166A (zh) | 应用于结构化道路的负障碍检测方法、系统、介质及设备 | |
CN114035202A (zh) | 基于激光雷达的障碍物检测方法及装置 | |
CN116429145B (zh) | 一种复杂场景下无人车与垃圾桶自动对接导航方法及系统 | |
WO2020248118A1 (zh) | 点云处理方法、系统、设备及存储介质 | |
JPWO2021021672A5 (ja) | ||
CN114820505A (zh) | 一种动态目标的非接触测量方法 | |
CN114910881A (zh) | 一种负障碍物检测方法及其装置、车辆 | |
CN112733923A (zh) | 一种确定禁行区域的系统及机器人 | |
CN114755695B (zh) | 关于激光雷达点云数据的路面检测方法、装置及介质 | |
KR20230092420A (ko) | 차량용 라이다 시스템 및 그 객체 검출 방법 | |
CN118644831A (zh) | 基于三维激光点云数据特征的立面障碍物检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230706 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230706 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240305 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240508 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240606 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7502411 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |