JP6949238B2 - マルチセンサ検出の融合を用いたロジスティクスグラウンド支援装置において衝突回避を向上させるためのシステム及び方法 - Google Patents
マルチセンサ検出の融合を用いたロジスティクスグラウンド支援装置において衝突回避を向上させるためのシステム及び方法 Download PDFInfo
- Publication number
- JP6949238B2 JP6949238B2 JP2020544634A JP2020544634A JP6949238B2 JP 6949238 B2 JP6949238 B2 JP 6949238B2 JP 2020544634 A JP2020544634 A JP 2020544634A JP 2020544634 A JP2020544634 A JP 2020544634A JP 6949238 B2 JP6949238 B2 JP 6949238B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- sensor
- lidar
- mobile industrial
- objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 150
- 238000000034 method Methods 0.000 title claims description 142
- 230000004927 fusion Effects 0.000 title claims description 78
- 238000012545 processing Methods 0.000 claims description 95
- 230000033001 locomotion Effects 0.000 claims description 51
- 238000013507 mapping Methods 0.000 claims description 51
- 239000003550 marker Substances 0.000 claims description 43
- 230000004044 response Effects 0.000 claims description 17
- 238000013527 convolutional neural network Methods 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 12
- 230000003213 activating effect Effects 0.000 claims description 7
- 239000000463 material Substances 0.000 claims description 7
- 101100272279 Beauveria bassiana Beas gene Proteins 0.000 claims description 6
- 238000003860 storage Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 37
- 230000006870 function Effects 0.000 description 35
- 238000012549 training Methods 0.000 description 32
- 238000012360 testing method Methods 0.000 description 31
- 238000012706 support-vector machine Methods 0.000 description 29
- 238000013528 artificial neural network Methods 0.000 description 18
- 230000001133 acceleration Effects 0.000 description 17
- 238000004422 calculation algorithm Methods 0.000 description 17
- 239000013598 vector Substances 0.000 description 15
- 230000000694 effects Effects 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 13
- 230000000875 corresponding effect Effects 0.000 description 12
- 238000004458 analytical method Methods 0.000 description 10
- 230000008901 benefit Effects 0.000 description 10
- 238000005259 measurement Methods 0.000 description 10
- 230000002688 persistence Effects 0.000 description 9
- 230000006399 behavior Effects 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 8
- 230000005484 gravity Effects 0.000 description 8
- 238000001276 Kolmogorov–Smirnov test Methods 0.000 description 6
- 238000004061 bleaching Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 238000007499 fusion processing Methods 0.000 description 6
- 238000000926 separation method Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 5
- 238000013480 data collection Methods 0.000 description 5
- 238000007726 management method Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000004088 simulation Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000012800 visualization Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000005315 distribution function Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007717 exclusion Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical group OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 241000122205 Chamaeleonidae Species 0.000 description 1
- 101000606504 Drosophila melanogaster Tyrosine-protein kinase-like otk Proteins 0.000 description 1
- 241001236644 Lavinia Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000013101 initial test Methods 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000272 proprioceptive effect Effects 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0217—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with energy consumption, time reduction or distance reduction criteria
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
- G05D1/0236—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/048—Fuzzy inferencing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/02—Computing arrangements based on specific mathematical models using fuzzy logic
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64F—GROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
- B64F1/00—Ground or aircraft-carrier-deck installations
- B64F1/32—Ground or aircraft-carrier-deck installations for handling freight
- B64F1/322—Cargo loaders specially adapted for loading air freight containers or palletized cargo into or out of the aircraft
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64F—GROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
- B64F1/00—Ground or aircraft-carrier-deck installations
- B64F1/32—Ground or aircraft-carrier-deck installations for handling freight
- B64F1/326—Supply vehicles specially adapted for transporting catering to and loading into the aircraft
Description
本出願は、以下の関連の共同所有される米国仮特許出願に対する優先権の利益をここに主張する。“Systems and Methods for Enhanced Collision avoidance on Logistics Ground Support Equipment Using Multi−sensor Detection Fusion”と題された2018年2月26日に出願された米国仮特許出願第62/635,274号、“Systems and Methods for Enhanced Collision avoidance on Logistics Ground Support Equipment Using Multi−sensor Detection Fusion”と題された2018年3月29日に出願された米国仮特許出願第62/650,118号、及び“Systems and Methods for Enhanced Collision avoidance on Logistics Ground Support Equipment Using Multi−sensor Detection Fusion”と題された2018年5月2日に出願された米国仮特許出願第62/665,822号である。
例示的な動的経路追従又は運動学モデルに関するさらなる詳細
式(1)
式(2)
式(3)
式(4)
式(7)
式(9)
式(10)
式(12)
さらに例示的な実施形態は、産業車両(貨物トラクタ等)がLiDAR及び単色カメラを利用してパッシブビーコンを検出し、モデル予測制御を利用して車両が制限された空間に入るのを阻止するシステム、装置、及び方法を含んでもよい。そのような実施形態では、ビーコンは、(所望の高さに依存する)標準的なオレンジ色の交通コーンのみで実装されてもよく、又は高反射性の垂直ポールが取り付けられて展開されてもよい。LiDARはこれらのビーコンを検出し得るが、LiDARの視覚環境内の作業者安全ベスト等の他の反射面のために誤判定に悩まされることがある。上述のように、本明細書及び以下に記載する実施形態は、ディープラーニング法を介してカメラ画像内のビーコンを投影し、カメラからLiDAR空間へのニューラルネットワーク学習投影を用いて検出を検証することによって、LiDARからの誤判定検出を低減するのに役立つ。
[アルゴリズムの例1:LiDAR輝ピクセルクラスタリング]
入力:LiDAR点群 P={xj、yj、zj、ij、rj}とNP点
入力:高強度の閾値:TH
入力:クラスタ距離の閾値:e(メートル)
入力:グラウンドZ 閾値:TG(メートル)
出力:点群の各輝点のクラスタ番号
非リターン点を削除する
for 点群の各点 do
点群から全ての非リターン点(NaN’s)を削除する
グラウンドの点を削除する
for 修正点群の各点 do
Z値がTG未満の全ての点を点群から削除する
非輝点を削除する
for 修正点群の各点 do
強度値がTH未満の全ての点を点群から削除する
クラスタの輝点:
全ての点をクラスタ0に割り当てる
Cl←0に設定する
for 修正点群の各点Pj do
if 点がクラスタに属していない then
クラスタに点を追加する
クラスタの数をインクリメントする:cl←cl+1
Pjをクラスタclに割り当てる
クラスタclの重心をPjに設定する
残りの全ての点をスキャンし、必要に応じて再クラスタ化する
for 各点Pmについてj<m≦NPの場合 do
if 点Pmからclの重心までの距離Dist<e then
Pmをクラスタclに追加する
クラスタclの重心を再計算する
[アルゴリズムの例2:LiDARの高レベルの特徴抽出前処理]
入力:LiDAR点群 P={xj、yj、zj、ij、rj}
入力:低強度の閾値:TL
入力:高強度の閾値:TH
入力:グラウンドZ 閾値:TG(メートル)
出力:特徴ベクトルf
非リターン点を削除する
for 点群の各点 do
点群から全ての非リターン点(NaN’s)を削除する
グラウンドの点を削除する
for 修正点群の各点 do
Z値がTG未満の全ての点を点群から削除する
閾値点群を作成する
for 修正点群の各点Pj do
if 点Pjの強度が_TH then
PjをPHTに追加する
if 点Pjの強度が_TL then
PjをPLTに追加する
特徴の抽出:
アルゴリズムの例3(以下に示す)を使用して特徴fを抽出する
[アルゴリズムの例3:LiDAR特徴抽出]
入力:LiDAR高強度点群PHT=fxj、yj、zj、ij、rjg
入力:LiDAR低強度点群PLT=fxj、yj、zj、ij、rjg
入力:内側の領域のx範囲:DxI(メートル)
入力:内側の領域のy範囲:DxI(メートル)
入力:外側の領域のx範囲:DxO(メートル)
入力:外側の領域のy範囲:DyO(メートル)
入力:グラウンドからのLiDARの高さ:ZL=1.4(メートル)
出力:特徴ベクトルf
高強度の点群をクラスタ化する:
for 高強度点の各点 do
点をクラスタ化し、クラスタの中心を決定する
特徴を計算する:
for 点群内の各クラスタ中心点c=(xC、yC、zC) do
式1を使用して、内側領域のPHTの全ての点を決定し、表1から特徴1を計算する
式2を使用して、外側領域のPHTの全ての点を決定し、表1から特徴4を計算する
式1を使用して、内側領域のPLTの全ての点を決定し、表1から特徴6、7、9、10を計算する
式2を使用して、外側領域のPLTの全ての点を決定し、表1から特徴2、3、5、8を計算する
f=[f1、f2、f3、_ _ _、f20]を返す
[アルゴリズムの例4:LiDARとカメラ検出の融合]
入力:[距離、角度、疑似信頼度スコア]の形式でのLiDARからの検出
入力:[距離、角度、信頼度スコア]の形式でのカメラからの検出
入力:角度閾値:融合したカメラとLiDAR検出との間の角度差のA
入力:信頼度閾値:最終検出信頼度スコア閾値のC
出力:[距離、角度、検出信頼度]の形式での融合検出
for カメラからの各検出 do
if 角度差がA未満の対応するLiDAR検出が存在する then
LiDARからの距離と角度を使用して融合し、ファジー論理を使用して信頼度スコアを組み合わせて、融合された検出の信頼性を決定する
else
最終的な検出結果としてカメラからの距離、角度、信頼度スコアを使用して、カメラから新しい検出を作成する
for 対応するカメラ検出がない各LiDAR検出 do
最終的な検出結果としてLiDARからの距離、角度、信頼度スコアを使用して、LiDARから新しい検出を作成する
for 各融合検出 do
最終信頼度がCの信頼度閾値を下回る検出を削除する
融合した検出結果を返す
1.LiDAR信頼度スコアが高い場合、検出される確率が高くなる。
2.カメラの信頼度スコアが高い場合、検出される確率が高くなる。
3.LiDAR信頼度スコアが中程度の場合、検出される確率は中程度である。
4.LiDAR信頼度スコアが低く、カメラ信頼度スコアが中程度の場合、検出される確率は中程度である。
5.LiDAR信頼度スコアが低く、カメラ信頼度スコアが低い場合、検出される確率は低くなる。
Claims (33)
- マルチセンサデータ融合に基づいて高価値資産の移動式産業車両による衝突回避を向上させるための方法であって、前記高価値資産は、前記高価値資産に対して配置される1つ以上の反射ビーコンを有する方法であって、
(a)前記移動式産業車両のLiDARセンサを用いて、前記移動式産業車両に対する前記1つ以上の反射ビーコンを検出するステップと、
(b)前記移動式産業車両のカメラセンサを用いて、前記移動式産業車両に対する1つ以上のオブジェクトを検出するステップと、
(c)前記移動式産業車両のセンサ処理システムによって、検出されたLiDARセンサデータ及び検出されたカメラセンサデータを使用して、マルチセンサ融合データソースに基づいて、前記1つ以上の反射ビーコンの相対位置を識別するために、前記LiDARセンサ及び前記カメラセンサのそれぞれによって検出された前記センサデータを融合するステップと、
(d)前記移動式産業車両のモデル予測コントローラによって、複数の制御ソリューションを決定するステップであって、各制御ソリューションは、前記1つ以上の反射ビーコンの検証された相対位置から半径方向に投影された点への推定経路に基づいて、離散的な瞬間における前記移動式産業車両の閾値許容速度を定義するステップと、
(e)前記モデル予測コントローラによって、パフォーマンスコスト関数に基づいて、前記制御ソリューションの1つを最適ソリューションとして識別するステップであって、前記制御ソリューションの1つは、最適閾値許容速度に関連付けられるステップと、
(f)前記移動式産業車両の車両作動システムによって、前記移動式産業車両に時間ウィンドウ内で移動動作を変更させ、前記移動式産業車両の現在の速度に対して所望の移動動作を達成するために、前記移動式産業車両が前記最適閾値許容速度を超えたときに、応答的に車速制御要素を作動させるステップと
を含む、方法。 - 前記移動式産業車両が、動力車両と、前記動力車両に連続的に連結された複数の被牽引車両とを含み、
前記複数の制御ソリューションを決定するステップは、前記移動式産業車両のモデル予測コントローラによって、前記複数の制御ソリューションを決定することを含み、前記制御ソリューションのそれぞれは、前記1つ以上の反射ビーコンの前記検証された相対位置から半径方向に投影された点までの前記動力車両及び前記被牽引車両の予測された経路に基づいて、時間/空間内の離散的な瞬間における前記移動式産業車両の前記閾値許容速度を定義する、請求項1に記載の方法。 - 前記動力車両及び前記被牽引車両の前記経路は、前記動力車両に追従するいずれかの被牽引車両の位置の能動的検出を行わずに、前記モデル予測コントローラによって予測される、請求項2に記載の方法。
- 融合するステップ(c)は、
前記1つ以上のオブジェクトを検出するときに前記カメラセンサによって生成されるセンサデータに基づいて前記1つ以上の境界ボックスを決定するステップと、
前記1つ以上の反射ビーコンを検出するときに前記LiDARセンサによって生成されるセンサデータに基づいてマッピング空間を決定するステップと、
決定された1つ以上の境界ボックスを決定されたマッピング空間に投影するステップと、
前記1つ以上の反射ビーコンの前記相対位置を検証するために、前記決定された1つ以上の境界ボックスを前記マッピング空間内で検出されたオブジェクトと比較するステップと
を含む、請求項1に記載の方法。 - 前記決定された1つ以上の境界ボックスを前記決定されたマッピング空間に投影するステップは、前記センサ処理システムが畳み込みニューラルネットワークを使用することによって実行される、請求項4に記載の方法。
- 融合するステップ(c)は、
前記1つ以上のオブジェクトを検出するときに前記カメラセンサによって生成された前記センサデータに基づいて前記1つ以上の境界ボックス及びカメラ信頼度スコアを決定するステップと、
前記1つ以上の反射ビーコンを検出するときに前記LiDARセンサによって生成された前記センサデータに基づいてマッピング空間及びLiDAR信頼度スコアを決定するステップと、
前記1つ以上のオブジェクトの前記相対位置を識別し、かつ前記カメラ信頼度スコア及び前記LiDAR信頼度スコアに基づいて最終信頼度スコアを決定するために、前記決定された1つ以上の境界ボックスを前記決定されたマッピング空間に投影するステップと、
前記1つ以上のオブジェクトの特定の1つの前記最終信頼度スコアが信頼度閾値を下回る場合に、前記1つ以上のオブジェクトの特定の1つの識別された相対位置を無視するステップと、
各最終信頼度スコアに基づいて無視されなかった前記1つ以上のオブジェクトの前記相対位置を検証するために、前記決定された1つ以上の境界ボックスを前記マッピング空間内で検出されたオブジェクトと比較するステップと
を含む、請求項1に記載の方法。 - 少なくとも、前記最終信頼度スコアが前記信頼度閾値を下回る場合に前記1つ以上のオブジェクトの前記識別された相対位置を無視するステップは、前記センサ処理システム内のファジー論理によって実行される、請求項6に記載の方法。
- 前記高価値資産に対して前記1つ以上の反射ビーコンを配備するステップをさらに含む、請求項1に記載の方法。
- 前記高価値資産に対して前記1つ以上の反射ビーコンを配備するステップは、前記1つ以上の反射ビーコンを前記高価値資産に隣接して配置することを含む、請求項8に記載の方法。
- 前記高価値資産に対して前記1つ以上の反射ビーコンを配備するステップは、前記1つ以上の反射ビーコンの少なくとも1つを格納位置から展開されたアクティブ位置まで作動させることを含む、請求項8に記載の方法。
- 前記高価値資産に対して前記1つ以上の反射ビーコンを配備するステップは、前記1つ以上の反射ビーコンの少なくとも1つを、前記高価値資産における格納位置から前記高価値資産における展開されたアクティブ位置まで作動させることを含む、請求項8に記載の方法。
- 前記車速制御要素を応答的に作動させるステップは、前記車速制御要素として前記移動式産業車両においてスロットルを作動させることを含む、請求項1に記載の方法。
- 前記車速制御要素を応答的に作動させるステップは、前記車速制御要素として前記移動式産業車両においてブレーキをかけることを含む、請求項1に記載の方法。
- マルチセンサデータ融合に基づいて高価値資産の移動式産業車両による衝突回避を向上させるためのシステムであって、前記高価値資産は、前記高価値資産に対して配置される1つ以上の反射ビーコンを有するシステムであって、
前記移動式産業車両に配置される感知処理システム
を備えており、
前記感知処理システムは、
前記移動式産業車両の前方にある前記1つ以上の反射ビーコンを検出するために前方向きに取り付けられるLiDARセンサと、
前記移動式産業車両の前方にある1つ以上のオブジェクトを検出するために前方向きに取り付けられるカメラセンサと、
前記LiDARセンサ及び前記カメラセンサのそれぞれからの入力に応答するマルチプロセッサモジュールであって、検出されたLiDARセンサデータ及び検出されたカメラセンサデータを使用して、マルチセンサ融合データソースに基づいて、前記1つ以上の反射ビーコンの相対位置を識別するために、前記LiDARセンサ及び前記カメラセンサのそれぞれによって検出される前記センサデータを融合するように動作するマルチプロセッサモジュールと、
前記移動式産業車両に配置されるモデル予測コントローラであって、
複数の制御ソリューションを決定することであって、各制御ソリューションは、前記1つ以上の反射ビーコンの検証された相対位置から半径方向に投影された点への推定経路に基づいて、離散的な瞬間における前記移動式産業車両の閾値許容速度を定義すること、
パフォーマンスコスト関数に基づいて、前記制御ソリューションの1つを最適ソリューションとして識別することであって、前記制御ソリューションの1つは、最適閾値許容速度に関連付けられること
を行うようにプログラム的に動作することによって構成されるモデル予測コントローラと、
前記高価値資産との衝突を回避するために前記移動式産業車両の移動動作を前記移動式産業車両に変化させることによって、前記移動式産業車両が前記最適閾値許容速度を超えたときに応答するように構成される車両アクチュエータを少なくとも備える車両作動システムと
をさらに備える、システム。 - 前記移動式産業車両が、動力車両と、前記動力車両に連続的に連結された複数の被牽引車両とを含み、
前記モデル予測コントローラは、前記複数の制御ソリューションを決定するようにプログラム的に動作することによりさらに構成され、前記制御ソリューションのそれぞれは、前記1つ以上の反射ビーコンの前記検証された相対位置から半径方向に投影された点までの前記動力車両及び前記被牽引車両の予測された経路に基づいて、時間/空間内の離散的な瞬間における前記移動式産業車両の前記閾値許容速度を定義する、請求項14に記載のシステム。 - 前記動力車両及び前記被牽引車両の前記経路は、前記動力車両に追従するいずれかの被牽引車両の位置の能動的検出を行わずに、前記モデル予測コントローラによって予測される、請求項15に記載のシステム。
- 前記感知処理システムの前記マルチプロセッサモジュールは、
前記1つ以上のオブジェクトを検出するときに前記カメラセンサによって生成されたセンサデータに基づいて1つ以上の境界ボックスを決定すること、
前記1つ以上の反射ビーコンを検出するときに前記LiDARセンサによって生成されるセンサデータに基づいてマッピング空間を決定すること、
決定された1つ以上の境界ボックスを決定されたマッピング空間に投影すること、及び
前記1つ以上の反射ビーコンの前記相対位置を検証するために、前記決定された1つ以上の境界ボックスを前記マッピング空間内で検出されたオブジェクトと比較すること
を行うようにプログラム的に動作することによって前記1つ以上の反射ビーコンの前記相対位置を識別するために、前記LiDARセンサ及び前記カメラセンサのそれぞれによって検出された前記センサデータを融合するように動作可能に構成される、請求項14に記載のシステム。 - 前記感知処理システムの前記マルチプロセッサモジュールは、畳み込みニューラルネットワークを使用して、前記決定された1つ以上の境界ボックスを前記決定されたマッピング空間に投影するように動作可能に構成される、請求項17に記載のシステム。
- 前記感知処理システムの前記マルチプロセッサモジュールは、
前記1つ以上のオブジェクトを検出するときに前記カメラセンサによって生成された前記センサデータに基づいて前記1つ以上の境界ボックス及びカメラ信頼度スコアを決定すること、
前記1つ以上の反射ビーコンを検出するときに前記LiDARセンサによって生成された前記センサデータに基づいてマッピング空間及びLiDAR信頼度スコアを決定すること、
前記1つ以上のオブジェクトの前記相対位置を識別し、かつ前記カメラ信頼度スコア及び前記LiDAR信頼度スコアに基づいて最終信頼度スコアを決定するために、前記決定された1つ以上の境界ボックスを前記決定されたマッピング空間に投影すること、
前記1つ以上のオブジェクトの特定の1つの前記最終信頼度スコアが信頼度閾値を下回る場合に、前記1つ以上のオブジェクトの特定の1つの識別された相対位置を無視すること、及び
各最終信頼度スコアに基づいて無視されなかった前記1つ以上のオブジェクトの前記相対位置を検証するために、前記決定された1つ以上の境界ボックスを前記マッピング空間内で検出されたオブジェクトと比較すること
を行うようにプログラム的に動作することによって前記1つ以上の反射ビーコンの前記相対位置を識別するために、前記LiDARセンサ及び前記カメラセンサのそれぞれによって検出された前記センサデータを融合するように動作可能に構成される、請求項14に記載のシステム。 - 前記感知処理システムの前記マルチプロセッサモジュールは、
前記1つ以上のオブジェクトを検出するときに前記カメラセンサによって生成された前記センサデータに基づいて1つ以上の境界ボックス及びカメラ信頼度スコアを決定すること、
前記1つ以上の反射ビーコンを検出するときに前記LiDARセンサによって生成された前記センサデータに基づいてマッピング空間及びLiDAR信頼度スコアを決定すること、
前記1つ以上のオブジェクトの前記相対位置を識別し、かつ前記カメラ信頼度スコア及び前記LiDAR信頼度スコアに基づいて最終信頼度スコアを決定するために、前記決定された1つ以上の境界ボックスを前記決定されたマッピング空間に投影すること、
前記1つ以上のオブジェクトの特定の1つの前記最終信頼度スコアが信頼度閾値を下回る場合に、前記1つ以上のオブジェクトの特定の1つの識別された相対位置を無視すること、及び
各最終信頼度スコアに基づいて無視されなかった前記1つ以上のオブジェクトの前記相対位置を検証するために、前記決定された1つ以上の境界ボックスを前記マッピング空間内で検出されたオブジェクトと比較すること
を行うようにプログラム的に動作するファジー論理を使用することによって前記1つ以上の反射ビーコンの前記相対位置を識別するために、前記LiDARセンサ及び前記カメラセンサのそれぞれによって検出された前記センサデータを融合するように動作可能に構成される、請求項14に記載のシステム。 - 前記1つ以上の反射ビーコンのそれぞれは、ベース支持体と、前記ベース支持体に取り付けられた垂直ポールとを備え、前記垂直ポールは、前記垂直ポールの長さに沿って配置される反射材料を含む、請求項14に記載のシステム。
- 前記1つ以上の反射ビーコンの少なくとも1つは、前記高価値資産の一部として統合反射ビーコンを備え、前記統合反射ビーコンは、前記統合反射ビーコンが可視でない格納位置から、前記統合反射ビーコンが可視である展開された能動位置へと作動される、請求項14に記載のシステム。
- 前記車両アクチュエータは、前記移動式産業車両に配置されるスロットルを備える、請求項14に記載のシステム。
- 前記車両アクチュエータは、前記移動式産業車両に配置されるブレーキを備える、請求項14に記載のシステム。
- 前記車両作動システムは、
前記移動式産業車両の現在の速度を監視する車両モニタ、及び
前記移動式産業車両に既定の時間ウィンドウ内で前記移動式産業車両の移動動作を変化させるように、前記移動式産業車両の監視された速度が最適許容閾値速度を超えたときに、応答的に前記車両アクチュエータを作動させるフィードバック制御システム
をさらに備える、請求項14に記載のシステム。 - マルチセンサデータ融合に基づいて高価値資産の移動式産業車両による衝突回避を向上させるためのシステムであって、
前記高価値資産における予め指定された位置に対して配置される複数の反射ビーコンと、
前記移動式産業車両に配置される感知処理システムと、
前記移動式産業車両に配置されるモデル予測コントローラと、
前記高価値資産との衝突を回避するために前記移動式産業車両の移動動作を前記移動式産業車両に変化させることによって、前記移動式産業車両が最適閾値許容速度を超えたときに応答するように構成される車両アクチュエータを少なくとも備える車両作動システムと
を備えており、
前記感知処理システムは、
前記移動式産業車両の前方にある1つ以上の反射ビーコンを検出するために前方向きに取り付けられるLiDARセンサと、
前記移動式産業車両の前方にある1つ以上のオブジェクトを検出するために前方向きに取り付けられるカメラセンサと、
前記LiDARセンサ及び前記カメラセンサのそれぞれからの入力に応答するマルチプロセッサモジュールであって、検出されたLiDARセンサデータ及び検出されたカメラセンサデータを使用して、マルチセンサ融合データソースに基づいて、前記1つ以上の反射ビーコンの相対位置を識別するために、前記LiDARセンサ及び前記カメラセンサのそれぞれによって検出された前記センサデータを融合するように動作するマルチプロセッサモジュールと
をさらに備え、
前記感知処理システムの前記マルチプロセッサモジュールは、
前記1つ以上のオブジェクトを検出するときに前記カメラセンサによって生成されるセンサデータに基づいて1つ以上の境界ボックスを決定すること、
前記1つ以上の反射ビーコンを検出するときに前記LiDARセンサによって生成されるセンサデータに基づいてマッピング空間を決定すること、
決定された1つ以上の境界ボックスを決定されたマッピング空間に投影すること、及び
前記1つ以上の反射ビーコンの前記相対位置を検証するために、前記決定された1つ以上の境界ボックスを前記マッピング空間内で検出されたオブジェクトと比較すること
を行うようにプログラム的に動作することによって前記1つ以上の反射ビーコンの前記相対位置を識別するために、前記LiDARセンサ及び前記カメラセンサのそれぞれによって検出された前記センサデータを融合するように動作可能に構成され、
前記モデル予測コントローラは、
複数の制御ソリューションを決定することであって、各制御ソリューションは、前記1つ以上の反射ビーコンの検証された相対位置から半径方向に投影された点への推定経路に基づいて、離散的な瞬間における前記移動式産業車両の閾値許容速度を定義すること、及び
パフォーマンスコスト関数に基づいて、前記制御ソリューションの1つを最適ソリューションとして識別することであって、前記制御ソリューションの1つは、前記最適閾値許容速度に関連付けられること
を行うようにプログラム的に動作することによって構成される、システム。 - マルチセンサデータ融合に基づいて移動式産業車両の進行方向にあるオブジェクトの移動式産業車両によるフロントガード衝突回避を向上させるためのシステムであって、
前記移動式産業車両に配置される感知処理システムと、
前記移動式産業車両に配置されるモデル予測コントローラと、
前記オブジェクトとの衝突を回避するために前記移動式産業車両の移動動作を前記移動式産業車両に変化させることによって、前記移動式産業車両が最適閾値許容速度を超えたときに応答するように構成される車両アクチュエータを少なくとも備える車両作動システムと
を備えており、
前記感知処理システムは、
前記移動式産業車両の前方にある1つ以上のオブジェクトを検出するために前方向きに取り付けられるLiDARセンサと、
前記移動式産業車両の前方にある前記1つ以上のオブジェクトを検出するために前方向きに取り付けられるカメラセンサと、
前記LiDARセンサ及び前記カメラセンサのそれぞれからの入力に応答するマルチプロセッサモジュールであって、検出されたLiDARセンサデータ及び検出されたカメラセンサデータを使用して、マルチセンサ融合データソースに基づいて、前記1つ以上のオブジェクトの相対位置を識別するために、前記LiDARセンサ及び前記カメラセンサのそれぞれによって検出されたセンサデータを融合するように動作するマルチプロセッサモジュールと
をさらに備え、
前記感知処理システムの前記マルチプロセッサモジュールは、
前記1つ以上のオブジェクトを検出するときに前記カメラセンサによって生成されるセンサデータに基づいて1つ以上の境界ボックスを決定すること、
前記1つ以上のオブジェクトを検出するときに前記LiDARセンサによって生成されるセンサデータに基づいてマッピング空間を決定すること、
決定された1つ以上の境界ボックスを決定されたマッピング空間に投影すること、及び
前記1つ以上のオブジェクトの前記相対位置を検証するために、決定された1つ以上の境界ボックスを前記マッピング空間内で検出されたオブジェクトと比較すること
を行うようにプログラム的に動作することによって前記1つ以上のオブジェクトの前記相対位置を識別するために、前記LiDARセンサ及び前記カメラセンサのそれぞれによって検出された前記センサデータを融合するように動作可能に構成され、
前記モデル予測コントローラは、
複数の制御ソリューションを決定することであって、各制御ソリューションは、前記1つ以上のオブジェクトの検証された相対位置から半径方向に投影された点への推定経路に基づいて、離散的な瞬間における前記移動式産業車両の閾値許容速度を定義すること、及び
パフォーマンスコスト関数に基づいて、前記制御ソリューションの1つを最適ソリューションとして識別することであって、前記制御ソリューションの1つは、前記最適閾値許容速度に関連付けられること
を行うようにプログラム的に動作することによって構成される、システム。 - 前記マルチプロセッサモジュールは、前記移動式産業車両の変化した移動動作に応答して、前記マルチプロセッサモジュールによって考慮される前記LiDARセンサ及び前記カメラセンサの少なくとも1つの有効視野を動的に調整するようにプログラム的にさらに動作することによって、前記LiDARセンサ及び前記カメラセンサのそれぞれからの入力に応答する、請求項27に記載のシステム。
- 前記マルチプロセッサモジュールは、前記移動式産業車両の方向の変化の検出に応答して、前記マルチプロセッサモジュールによって考慮される前記LiDARセンサ及び前記カメラセンサの少なくとも1つの有効視野を動的に調整するようにプログラム的にさらに動作することによって、前記LiDARセンサ及び前記カメラセンサのそれぞれからの入力に応答する、請求項27に記載のシステム。
- 前記マルチプロセッサモジュールは、
前記LiDARセンサ及び前記カメラセンサの少なくとも1つによって生成されたセンサデータを用いてオブジェクト識別マーカを検出すること、
検出されたオブジェクト識別マーカを、第1の動作領域と第2の動作領域との間の境界識別子として識別すること、及び
識別された境界識別子に応答して、前記LiDARセンサ及び前記カメラセンサの少なくとも1つによって生成される後続のセンサデータに関する有効視野を動的に調整すること
を行うようにプログラム的にさらに動作することによって、前記LiDARセンサ及び前記カメラセンサのそれぞれからの入力に応答する、請求項27に記載のシステム。 - 前記マルチプロセッサモジュールは、前記1つ以上のオブジェクトの前記相対位置を識別するために前記マルチセンサ融合データソースにおいて使用される前記検出されたLiDARセンサデータ及び前記検出されたカメラセンサデータの少なくとも1つを動的に制限するようにさらに動作することによって、前記LiDARセンサ及び前記カメラセンサの少なくとも1つに関する前記有効視野を動的に調整するようにプログラム的にさらに動作する、請求項28に記載のシステム。
- 前記マルチセンサ融合データソースにおいて使用される前記検出されたLiDARセンサデータ及び前記検出されたカメラセンサデータの少なくとも1つを動的に制限することは、前記LiDARセンサ及び前記カメラセンサの少なくとも1つが焦点を合わせている場所を有効的に調整するように動的に制限することである、請求項31に記載のシステム。
- 前記マルチセンサ融合データソースにおいて使用される前記検出されたLiDARセンサデータ及び前記検出されたカメラセンサデータの少なくとも1つを動的に制限することは、前記LiDARセンサ及び前記カメラセンサの少なくとも1つに関する受容フィールドの幅の程度を有効的に調整するように動的に制限することである、請求項31に記載のシステム。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862635274P | 2018-02-26 | 2018-02-26 | |
US62/635,274 | 2018-02-26 | ||
US201862650118P | 2018-03-29 | 2018-03-29 | |
US62/650,118 | 2018-03-29 | ||
US201862665822P | 2018-05-02 | 2018-05-02 | |
US62/665,822 | 2018-05-02 | ||
PCT/US2019/019525 WO2019165409A1 (en) | 2018-02-26 | 2019-02-26 | Systems and methods for enhanced collision avoidance on logistics ground support equipment using multi-sensor detection fusion |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021509381A JP2021509381A (ja) | 2021-03-25 |
JP6949238B2 true JP6949238B2 (ja) | 2021-10-13 |
Family
ID=67685802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020544634A Active JP6949238B2 (ja) | 2018-02-26 | 2019-02-26 | マルチセンサ検出の融合を用いたロジスティクスグラウンド支援装置において衝突回避を向上させるためのシステム及び方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10761538B2 (ja) |
EP (1) | EP3758983A4 (ja) |
JP (1) | JP6949238B2 (ja) |
CN (1) | CN111757822B (ja) |
CA (1) | CA3090668C (ja) |
WO (1) | WO2019165409A1 (ja) |
Families Citing this family (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018168182A1 (ja) * | 2017-03-17 | 2018-09-20 | 日本電気株式会社 | 移動体検出装置、移動体検出方法および移動体検出プログラム |
US10926759B2 (en) * | 2018-06-07 | 2021-02-23 | GM Global Technology Operations LLC | Controlling a vehicle based on trailer position |
IT201800006499A1 (it) * | 2018-06-20 | 2019-12-20 | Procedimento per la diagnostica di una struttura sottoposta a carichi basato sulla misura di spostamenti, e sistema per l'attuazione di detto procedimento. | |
US11353872B2 (en) * | 2018-07-30 | 2022-06-07 | Pony Ai Inc. | Systems and methods for selectively capturing and filtering sensor data of an autonomous vehicle |
WO2020028244A1 (en) * | 2018-07-30 | 2020-02-06 | Fedex Corporate Services, Inc. | Enhanced systems, apparatus, and methods for improved automated and autonomous operation of logistics ground support equipment |
US10769496B2 (en) * | 2018-10-25 | 2020-09-08 | Adobe Inc. | Logo detection |
US11164329B2 (en) * | 2018-11-01 | 2021-11-02 | Inpixon | Multi-channel spatial positioning system |
IL270540A (en) * | 2018-12-26 | 2020-06-30 | Yandex Taxi Llc | Method and system for training a machine learning algorithm to recognize objects from a distance |
US11327490B2 (en) * | 2019-01-07 | 2022-05-10 | Velodyne Lidar Usa, Inc. | Dynamic control and configuration of autonomous navigation systems |
US20200217954A1 (en) * | 2019-01-07 | 2020-07-09 | Velodyne Lidar, Inc. | Systems and methods for a configurable sensor system |
US11353878B2 (en) * | 2019-03-26 | 2022-06-07 | Baidu Usa Llc | Soft-boundary based path optimization for complex scenes for autonomous driving vehicles |
DE102019205365A1 (de) * | 2019-04-12 | 2020-10-15 | Volkswagen Aktiengesellschaft | Kraftfahrzeug und Verfahren zur Kollisionsvermeidung |
US11531349B2 (en) * | 2019-06-21 | 2022-12-20 | Volkswagen Ag | Corner case detection and collection for a path planning system |
US11327178B2 (en) * | 2019-09-06 | 2022-05-10 | Volvo Car Corporation | Piece-wise network structure for long range environment perception |
CN110795991B (zh) * | 2019-09-11 | 2023-03-31 | 西安科技大学 | 一种基于多信息融合的矿用机车行人检测方法 |
US20210100451A1 (en) * | 2019-10-07 | 2021-04-08 | Siyang Cao | Systems and methods of remote extraction of skeletal information using millimeter wave radar |
US11288515B2 (en) * | 2019-11-11 | 2022-03-29 | Samsung Electronics Co., Ltd. | Methods and systems for real-time data reduction |
US11745654B2 (en) * | 2019-11-22 | 2023-09-05 | Metawave Corporation | Method and apparatus for object alert for rear vehicle sensing |
CN110989642B (zh) * | 2019-11-27 | 2023-09-01 | 中国民用航空总局第二研究所 | 基于三维路径跟踪的航空器地面牵引智能辅助方法及系统 |
CN110988912B (zh) * | 2019-12-06 | 2022-12-02 | 青岛慧拓智能机器有限公司 | 自动驾驶车辆的道路目标与距离检测方法、系统、装置 |
US11579272B2 (en) * | 2019-12-23 | 2023-02-14 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and reflect array for alignment calibration of frequency modulated LiDAR systems |
CN111198378B (zh) * | 2019-12-27 | 2022-06-28 | 深圳市优必选科技股份有限公司 | 基于边界的自主探索方法和装置 |
US11314258B2 (en) * | 2019-12-27 | 2022-04-26 | Intel Corporation | Safety system for a vehicle |
CN111242986B (zh) * | 2020-01-07 | 2023-11-24 | 阿波罗智能技术(北京)有限公司 | 跨相机的障碍物跟踪方法、装置、设备、系统及介质 |
CN111292261B (zh) * | 2020-01-17 | 2023-04-18 | 杭州电子科技大学 | 一种基于多传感器融合的集装箱检测及锁定方法 |
CN111169390A (zh) * | 2020-01-20 | 2020-05-19 | 中汽数据(天津)有限公司 | 一种多传感器融合智能集成车 |
US11625041B2 (en) * | 2020-02-21 | 2023-04-11 | Zoox, Inc. | Combined track confidence and classification model |
WO2021173085A1 (en) * | 2020-02-28 | 2021-09-02 | National University Of Singapore | System for managing interconnected objects |
CN111860097B (zh) * | 2020-04-16 | 2024-02-20 | 西安电子科技大学 | 一种基于模糊理论的异常行为检测方法 |
US11726484B1 (en) * | 2020-06-03 | 2023-08-15 | Delta Air Lines, Inc. | Airport ground support equipment navigation system |
CN111746288B (zh) * | 2020-06-12 | 2023-03-14 | 南昌大学 | 一种基于环境感知碰撞主动断电保护系统设计方法 |
CN111746533A (zh) * | 2020-06-30 | 2020-10-09 | 三一专用汽车有限责任公司 | 车辆和车辆控制方法 |
CN112565376B (zh) * | 2020-11-30 | 2021-11-26 | 深圳易马达科技有限公司 | 物体放置方法、装置、终端设备和存储介质 |
US11417373B2 (en) * | 2020-12-09 | 2022-08-16 | Micron Technology, Inc. | Neuromorphic computing devices and methods |
CN112596379B (zh) * | 2020-12-16 | 2022-02-22 | 复旦大学 | 一种机器人控制器设计方法 |
CN112527000B (zh) * | 2020-12-23 | 2021-10-26 | 中南大学 | 矿井下智能驾驶的局部路径规划方法及系统 |
CN114341761B (zh) * | 2020-12-25 | 2024-04-02 | 优必康(青岛)科技有限公司 | 防撞方法、移动机器及存储介质 |
CN112835037B (zh) * | 2020-12-29 | 2021-12-07 | 清华大学 | 一种基于视觉和毫米波融合的全天候目标检测方法 |
DE102021201522A1 (de) * | 2021-02-17 | 2022-08-18 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zur Ermittlung einer räumlichen Ausrichtung eines Anhängers |
CN113177557B (zh) * | 2021-03-15 | 2023-11-14 | 福建电子口岸股份有限公司 | 一种基于机器视觉和深度学习的防打保龄的方法和系统 |
CN113095401B (zh) * | 2021-04-12 | 2022-09-13 | 吉林大学 | 一种多传感器多目标关联跟踪方法 |
CN113190043A (zh) * | 2021-05-06 | 2021-07-30 | 国网山西省电力公司吕梁供电公司 | 基于ros平台的六旋翼无人机mpc控制方法 |
US20220406010A1 (en) * | 2021-06-17 | 2022-12-22 | Board Of Trustees Of Michigan State University | Lidar Camera Fusion For Autonomous Vehicles |
US11614527B2 (en) * | 2021-06-21 | 2023-03-28 | Cyngn, Inc. | Self-adaptive liDAR-camera synchronization system |
CN113463720B (zh) * | 2021-06-30 | 2023-02-17 | 广西柳工机械股份有限公司 | 装载机铲斗接触物料的辨识系统和方法 |
US11778935B2 (en) * | 2021-09-13 | 2023-10-10 | Deere & Company | Controlling operating envelope for off-road equipment based on a digital fence |
US20230101438A1 (en) * | 2021-09-30 | 2023-03-30 | Canoo Technologies Inc. | System and method in vehicle path prediction based on odometry and inertial measurement unit |
US11769245B2 (en) * | 2021-10-21 | 2023-09-26 | Goodrich Corporation | Systems and methods of monitoring cargo load systems for damage detection |
EP4202589A1 (en) * | 2021-12-23 | 2023-06-28 | Volvo Autonomous Solutions AB | Generating reference trajectories for vehicles in confined areas |
WO2023192280A2 (en) * | 2022-03-28 | 2023-10-05 | Seegrid Corporation | Safety field switching based on end effector conditions in vehicles |
CN115019503B (zh) * | 2022-05-12 | 2023-06-16 | 东风汽车集团股份有限公司 | 基于信息共享的飞行汽车混合交通流下空间轨道分配方法 |
CN114879744B (zh) * | 2022-07-01 | 2022-10-04 | 浙江大学湖州研究院 | 一种基于机器视觉的夜间作业无人机系统 |
CN116820016B (zh) * | 2023-08-31 | 2023-11-21 | 国汽(北京)智能网联汽车研究院有限公司 | 一种物流车的自动驾驶控制方法、装置、设备及存储介质 |
CN117710755A (zh) * | 2024-02-04 | 2024-03-15 | 江苏未来网络集团有限公司 | 一种基于深度学习的车辆属性识别系统及方法 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5519618A (en) * | 1993-08-02 | 1996-05-21 | Massachusetts Institute Of Technology | Airport surface safety logic |
US5983161A (en) * | 1993-08-11 | 1999-11-09 | Lemelson; Jerome H. | GPS vehicle collision avoidance warning and control system and method |
US5940012A (en) * | 1997-05-09 | 1999-08-17 | Collision Avoidance Systems, Inc. | Collision avoidance system and method for operating the same |
US6804607B1 (en) * | 2001-04-17 | 2004-10-12 | Derek Wood | Collision avoidance system and method utilizing variable surveillance envelope |
JP2007276508A (ja) * | 2006-04-03 | 2007-10-25 | Fujitsu Ten Ltd | 車両の衝突回避制御装置 |
US8855848B2 (en) * | 2007-06-05 | 2014-10-07 | GM Global Technology Operations LLC | Radar, lidar and camera enhanced methods for vehicle dynamics estimation |
US8547298B2 (en) | 2009-04-02 | 2013-10-01 | GM Global Technology Operations LLC | Continuation of exterior view on interior pillars and surfaces |
US8482486B2 (en) * | 2009-04-02 | 2013-07-09 | GM Global Technology Operations LLC | Rear view mirror on full-windshield head-up display |
CN102156476B (zh) * | 2011-04-14 | 2013-12-18 | 山东大学 | 智能空间与护士机器人多传感器系统及其信息融合方法 |
US20130321169A1 (en) * | 2012-05-30 | 2013-12-05 | Honeywell International Inc. | Airport surface collision-avoidance system (ascas) |
US9581692B2 (en) * | 2012-05-30 | 2017-02-28 | Honeywell International Inc. | Collision-avoidance system for ground crew using sensors |
GB201305834D0 (en) * | 2013-03-29 | 2013-05-15 | Mallaghan Engineering Ltd | Collision prevention system for ground support equipment |
EP2983955B1 (en) * | 2013-04-11 | 2019-06-05 | Waymo Llc | Methods and systems for detecting weather conditions using vehicle onboard sensors |
US20150206439A1 (en) | 2014-01-20 | 2015-07-23 | Gulfstream Aerospace Corporation | Ground vehicle warning to indicate presence of an obstacle near an aircraft |
US9510505B2 (en) * | 2014-10-10 | 2016-12-06 | Irobot Corporation | Autonomous robot localization |
JP6308186B2 (ja) * | 2015-08-28 | 2018-04-11 | トヨタ自動車株式会社 | 衝突回避支援装置 |
US9719789B2 (en) * | 2015-11-23 | 2017-08-01 | Here Glboal B.V. | Method and apparatus for providing integration of access management with navigation systems |
US10703361B2 (en) * | 2017-06-14 | 2020-07-07 | Toyota Motor Engineering & Manufacturing North America, Inc. | Vehicle collision mitigation |
-
2019
- 2019-02-26 CA CA3090668A patent/CA3090668C/en active Active
- 2019-02-26 WO PCT/US2019/019525 patent/WO2019165409A1/en unknown
- 2019-02-26 EP EP19757840.4A patent/EP3758983A4/en active Pending
- 2019-02-26 CN CN201980015405.3A patent/CN111757822B/zh active Active
- 2019-02-26 US US16/285,542 patent/US10761538B2/en active Active
- 2019-02-26 JP JP2020544634A patent/JP6949238B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
CA3090668C (en) | 2022-09-13 |
EP3758983A1 (en) | 2021-01-06 |
JP2021509381A (ja) | 2021-03-25 |
CA3090668A1 (en) | 2019-08-29 |
EP3758983A4 (en) | 2021-08-11 |
WO2019165409A1 (en) | 2019-08-29 |
CN111757822A (zh) | 2020-10-09 |
CN111757822B (zh) | 2024-04-02 |
US10761538B2 (en) | 2020-09-01 |
WO2019165409A9 (en) | 2019-10-10 |
US20190265714A1 (en) | 2019-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6949238B2 (ja) | マルチセンサ検出の融合を用いたロジスティクスグラウンド支援装置において衝突回避を向上させるためのシステム及び方法 | |
US11885910B2 (en) | Hybrid-view LIDAR-based object detection | |
Dickmann et al. | Automotive radar the key technology for autonomous driving: From detection and ranging to environmental understanding | |
US10293822B1 (en) | Detecting and responding to parking behaviors in autonomous vehicles | |
US9340207B2 (en) | Lateral maneuver planner for automated driving system | |
Mertz et al. | Moving object detection with laser scanners | |
US20180349746A1 (en) | Top-View Lidar-Based Object Detection | |
Lee et al. | Moving object detection and tracking based on interaction of static obstacle map and geometric model-free approachfor urban autonomous driving | |
Shim et al. | An autonomous driving system for unknown environments using a unified map | |
Gosala et al. | Redundant perception and state estimation for reliable autonomous racing | |
US20230260266A1 (en) | Camera-radar data fusion for efficient object detection | |
US11853069B2 (en) | Continuing lane driving prediction | |
JP7172441B2 (ja) | 進行可能方向検出装置及び進行可能方向検出方法 | |
Lombacher et al. | Detection of arbitrarily rotated parked cars based on radar sensors | |
EP4184452A1 (en) | Vehicle light classification system | |
Arrouch et al. | Close proximity time-to-collision prediction for autonomous robot navigation: an exponential GPR approach | |
US20230294687A1 (en) | End-to-end processing in automated driving systems | |
Keatmanee et al. | Vision-based lane keeping-a survey | |
Mendes et al. | Computer vision systems in unmanned aerial vehicle: a review | |
Park | Development of a quadrotor-type UAV platform for autonomous collision avoidance under teleoperation | |
Yaodong | Active Obstacle Detection System Based on Video Recognition and Lidar Information Fusion | |
Li | Ros-Based Sensor Fusion and Motion Planning for Autonomous Vehicles: Application to Automated Parkinig System | |
RU2814813C1 (ru) | Устройство и способ для отслеживания объектов | |
JP2024037165A (ja) | オブジェクトをモデリングするための方法、機器、記憶媒体及び車両制御方法 | |
US20230252638A1 (en) | Systems and methods for panoptic segmentation of images for autonomous driving |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201026 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20201026 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210316 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210824 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210921 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6949238 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |