JP2019182415A - 自動運転車両(adv)に用いるピッチ角の補正方法 - Google Patents
自動運転車両(adv)に用いるピッチ角の補正方法 Download PDFInfo
- Publication number
- JP2019182415A JP2019182415A JP2019077277A JP2019077277A JP2019182415A JP 2019182415 A JP2019182415 A JP 2019182415A JP 2019077277 A JP2019077277 A JP 2019077277A JP 2019077277 A JP2019077277 A JP 2019077277A JP 2019182415 A JP2019182415 A JP 2019182415A
- Authority
- JP
- Japan
- Prior art keywords
- adv
- distance
- pitch angle
- image
- sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 31
- 238000012937 correction Methods 0.000 claims description 57
- 238000012545 processing Methods 0.000 claims description 29
- 238000004422 calculation algorithm Methods 0.000 claims description 18
- 238000010845 search algorithm Methods 0.000 claims description 12
- 230000003287 optical effect Effects 0.000 claims description 11
- 238000005259 measurement Methods 0.000 abstract description 12
- 230000008859 change Effects 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000002265 prevention Effects 0.000 description 6
- 230000003068 static effect Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000007405 data analysis Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 230000002085 persistent effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000014616 translation Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009429 electrical wiring Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/11—Pitch movement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0219—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0043—Signal treatments, identification of variables or parameters, parameter estimation or state estimation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
前記オブジェクトの画像に基づいて前記オブジェクトの二次元(2D)境界枠及び前記ADVから前記オブジェクトまでの感知距離を確定することと、前記オブジェクトの画像の画像空間において、前記2D境界枠及び前記ADVから前記オブジェクトまでの前記感知距離に基づいて、少なくとも前の外部補正値を補正して動的なピッチ角を探索し、距離値を算出することと、探索された動的なピッチ角に基づいて前記ADVから前記ADVから見る前記透視図における地面上の点までの距離を確定することと、確定された前記地面上の点の距離に基づいて走行軌跡を生成して前記ADVを制御すること、を含む操作を前記一つ又は複数のプロセッサに実行させる非一時的機器可読媒体に関する。
Claims (21)
- 自動運転車両(ADV)を操作するためのコンピュータ実施方法であって、
前記ADVに実装されている複数のセンサにより前記ADVから見る透視図から、単眼画像キャプチャデバイスでオブジェクトの画像をキャプチャすることを含むように前記オブジェクトを感知することと、
前記オブジェクトの画像に基づいて前記オブジェクトの二次元(2D)境界枠及び前記ADVから前記オブジェクトまでの感知距離を確定することと、
前記オブジェクトの画像の画像空間において、前記2D境界枠及び前記ADVから前記オブジェクトまでの前記感知距離に基づいて、少なくとも前の外部補正値を補正して動的なピッチ角を探索し、距離値を算出することと、
探索された動的なピッチ角に基づいて前記ADVから前記ADVから見る前記透視図における地面上の点までの距離を確定することと、
確定された前記地面上の点までの距離に基づいて走行軌跡を生成して前記ADVを制御することと、
を含むコンピュータ実施方法。 - 少なくとも前の外部補正値を補正することは、前記単眼画像キャプチャデバイスの前の外部補正値に関連するピッチ角を補正することを含む請求項1に記載のコンピュータ実施方法。
- 前記オブジェクトの前記2D境界枠は、
機器学習アルゴリズムモデルを前記透視図から前記オブジェクトの前記画像をキャプチャすることに適用し、
前記機器学習アルゴリズムモデルに基づいて前記オブジェクトを囲む前記2D境界枠のサイズを確定する、
ことにより確定される請求項1に記載のコンピュータ実施方法。 - 前記2D境界枠の接地点を確定して、前記2D境界枠の前記接地点に基づいて前記ADVから前記オブジェクトまでの距離を算出すること、をさらに含む請求項1に記載のコンピュータ実施方法。
- 前記動的なピッチ角を探索することは、公式D=h/tan(α+β)により前記ADVから前記オブジェクトまでの距離を算出することを含み、ただし、βは算出される動的なピッチ角、Dは算出された距離、αはカメラの光軸から地面までの前の補正角、hは前記オブジェクトの推定高度である、請求項1に記載のコンピュータ実施方法。
- 前記ADVから前記オブジェクトまでの算出距離が前記ADVから前記オブジェクトまでの前記感知距離の第二所定閾値内に入るまで、二分探索アルゴリズムにより前記動的なピッチ角を探索する、請求項1に記載のコンピュータ実施方法。
- 前記ADVから前記オブジェクトまでの算出距離が前記ADVから前記オブジェクトまでの前記感知距離の第二所定閾値内に入るまで、グリーディ探索アルゴリズムにより動的なピッチ角を探索する、請求項1に記載のコンピュータ実施方法。
- 指令が記憶されている非一時的機器可読媒体であって、
前記指令が一つ又は複数のプロセッサにより実行される場合に、
前記ADVに実装された複数のセンサにより前記ADVから見る透視図から、単眼画像キャプチャデバイスでオブジェクトの画像をキャプチャすることを含むように前記オブジェクトを感知することと、
前記オブジェクトの画像に基づいて前記オブジェクトの二次元(2D)境界枠及び前記ADVから前記オブジェクトまでの感知距離を確定することと、
前記オブジェクトの画像の画像空間において、前記2D境界枠及び前記ADVから前記オブジェクトまでの前記感知距離に基づいて、少なくとも前の外部補正値を補正して動的なピッチ角を探索し、距離値を算出することと、
探索された動的なピッチ角に基づいて前記ADVから前記ADVから見る前記透視図における地面上の点までの距離を確定することと、
確定された前記地面上の点の距離に基づいて走行軌跡を生成して前記ADVを制御すること、
を含む操作を前記一つ又は複数のプロセッサに実行させる非一時的機器可読媒体。 - 少なくとも前の外部補正値を補正することは、前記単眼画像キャプチャデバイスの前の外部補正値に関連するピッチ角を補正することを含む請求項8に記載の非一時的機器可読媒体。
- 前記オブジェクトの前記2D境界枠は、
機器学習アルゴリズムモデルを前記透視図から前記オブジェクトの前記画像をキャプチャすることに適用し、
前記機器学習アルゴリズムモデルに基づいて前記オブジェクトを囲む前記2D境界枠のサイズを確定する、
ことにより確定される請求項8に記載の非一時的機器可読媒体。 - 前記2D境界枠の接地点を確定することにより、前記2D境界枠の前記接地点に基づいて前記ADVから前記オブジェクトまでの距離を算出することを更に含む請求項8に記載の非一時的機器可読媒体。
- 前記動的なピッチ角を探索することは、公式D=h/tan(α+β)に基づいて前記ADVから前記オブジェクトまでの距離を算出することを含み、但し、βは算出される動的なピッチ角、Dは算出された距離、αはカメラの光軸から地面までの前の補正角、hは前記オブジェクトの推定高度である請求項8に記載の非一時的機器可読媒体。
- 前記ADVから前記オブジェクトまでの算出距離が前記ADVから前記オブジェクトまでの前記感知距離の第二所定閾値内に入るまで、二分探索アルゴリズムにより前記動的なピッチ角を探索する請求項8に記載の非一時的機器可読媒体。
- 前記ADVから前記オブジェクトまでの算出距離が前記ADVから前記オブジェクトまでの前記感知距離の第二所定閾値内に入るまで、グリーディ探索アルゴリズムを使用して動的なピッチ角を探索する請求項8に記載の非一時的機器可読媒体。
- データ処理システムであって、
一つ又は複数のプロセッサと、
前記プロセッサに結合されて指令を記憶するメモリと、を備え、
前記指令が前記一つ又は複数のプロセッサにより実行される場合に、
前記ADVに実装された複数のセンサにより前記ADVから見る透視図から、単眼画像キャプチャデバイスによりオブジェクトの画像をキャプチャすることを含むように前記オブジェクトを感知することと、
前記オブジェクトの画像に基いて前記オブジェクトの二次元(2D)境界枠及び前記ADVから前記オブジェクトまでの感知距離を確定することと、
前記オブジェクトの画像の画像空間において、前記2D境界枠及び前記ADVから前記オブジェクトまでの前記感知距離に基いて少なくとも前の外部補正値を補正して動的なピッチ角を探索し、距離値を算出することと、
探索された動的なピッチ角に基いて前記ADVから前記ADVから見る前記透視図における地面上の点までの距離を確定することと、
確定された前記地面上の点の距離に基いて走行軌跡を生成して前記ADVを制御することと、
を含む操作を前記一つ又は複数のプロセッサに実行させるシステム。 - 少なくとも前の外部補正値を補正することは、前記単眼画像キャプチャデバイスの前の外部補正値に関連するピッチ角を補正することを含む請求項15に記載のシステム。
- 前記オブジェクトの前記2D境界枠は、
機器学習アルゴリズムモデルを前記透視図から前記オブジェクトの前記画像をキャプチャすることに適用し、
前記機器学習アルゴリズムモデルに基いて前記オブジェクトを囲む前記2D境界枠のサイズを確定する、
ことにより確定される請求項15に記載のシステム。 - 前記操作は、
前記2D境界枠の接地点を確定して、前記2D境界枠の前記接地点に基いて前記ADVから前記オブジェクトまでの距離を算出すること、を更に含む請求項15に記載のシステム。 - 前記動的なピッチ角を探索することは、公式D=h/tan(α+β)により前記ADVから前記オブジェクトまでの距離を算出することを含み、ただし、βは算出する動的なピッチ角、Dは算出された距離、αはカメラの光軸から地面までの前の補正角、hは前記オブジェクトの推定高度である請求項15に記載のシステム。
- 前記ADVから前記オブジェクトまでの算出距離が前記ADVから前記オブジェクトまでの前記感知距離の第二所定閾値内に入るまで、二分探索アルゴリズムにより前記動的なピッチ角を探索する請求項15に記載のシステム。
- 前記ADVから前記オブジェクトまでの算出距離が前記ADVから前記オブジェクトまでの前記感知距離の第二所定閾値内に入るまで、グリーディ探索アルゴリズムにより動的なピッチ角を探索する請求項15に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/955,644 US10769793B2 (en) | 2018-04-17 | 2018-04-17 | Method for pitch angle calibration based on 2D bounding box and its 3D distance for autonomous driving vehicles (ADVs) |
US15/955,644 | 2018-04-17 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019182415A true JP2019182415A (ja) | 2019-10-24 |
JP6878493B2 JP6878493B2 (ja) | 2021-05-26 |
Family
ID=68160763
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019077277A Active JP6878493B2 (ja) | 2018-04-17 | 2019-04-15 | 自動運転車両(adv)に用いるピッチ角の補正方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10769793B2 (ja) |
JP (1) | JP6878493B2 (ja) |
CN (1) | CN110386142B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023514163A (ja) * | 2020-04-24 | 2023-04-05 | 株式会社ストラドビジョン | 自動車のカメラピッチをキャリブレーションする方法及び装置、並びにそのための消滅点推定モデルをコンティニュアルラーニングさせる方法 |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180162291A1 (en) * | 2016-12-12 | 2018-06-14 | Wipro Limited | System and method of dynamically adjusting field of view of an image capturing device |
US10816992B2 (en) * | 2018-04-17 | 2020-10-27 | Baidu Usa Llc | Method for transforming 2D bounding boxes of objects into 3D positions for autonomous driving vehicles (ADVs) |
CN109002039B (zh) * | 2018-07-06 | 2021-04-06 | 达闼科技(北京)有限公司 | 避障提醒方法、相关装置及计算机可读存储介质 |
US10816979B2 (en) * | 2018-08-24 | 2020-10-27 | Baidu Usa Llc | Image data acquisition logic of an autonomous driving vehicle for capturing image data using cameras |
EP3693244B1 (en) * | 2019-02-06 | 2022-08-17 | Continental Autonomous Mobility Germany GmbH | Vehicle and method for autonomously operating a vehicle |
US11276189B2 (en) * | 2019-03-06 | 2022-03-15 | Qualcomm Incorporated | Radar-aided single image three-dimensional depth reconstruction |
US11080561B2 (en) * | 2019-05-30 | 2021-08-03 | Qualcomm Incorporated | Training and verification of learning models using high-definition map information and positioning information |
US11778934B2 (en) * | 2019-07-02 | 2023-10-10 | Bear Flag Robotics, Inc. | Agricultural lane following |
US11699235B2 (en) * | 2019-11-20 | 2023-07-11 | Baidu Usa Llc | Way to generate tight 2D bounding boxes for autonomous driving labeling |
US20210335130A1 (en) * | 2020-04-28 | 2021-10-28 | Moj.Io, Inc. | Vehicle system with a safety mechanism and method of operation thereof |
CN112509054B (zh) * | 2020-07-20 | 2024-05-17 | 重庆兰德适普信息科技有限公司 | 一种相机外参动态标定方法 |
CN114572240B (zh) * | 2020-11-30 | 2023-11-14 | 北京百度网讯科技有限公司 | 车辆行驶控制方法、装置、车辆、电子设备及存储介质 |
CN112200172B (zh) * | 2020-12-07 | 2021-02-19 | 天津天瞳威势电子科技有限公司 | 一种可行驶区域的检测方法及装置 |
US11794742B1 (en) * | 2020-12-18 | 2023-10-24 | Zoox, Inc. | Dynamic vehicle suspension and steering adjustment |
US11897480B1 (en) | 2020-12-18 | 2024-02-13 | Zoox, Inc. | Vehicle scheduling based on occupant preferences |
US20230145561A1 (en) * | 2021-08-23 | 2023-05-11 | Argo AI, LLC | Systems and methods for validating camera calibration in real-time |
US20230145701A1 (en) * | 2021-09-24 | 2023-05-11 | Ford Global Technologies, Llc | Neural network object pose determination |
CN114136333A (zh) * | 2021-10-15 | 2022-03-04 | 阿波罗智能技术(北京)有限公司 | 基于分层特征的高精地图道路数据生成方法、装置、设备 |
US20230166732A1 (en) * | 2021-11-30 | 2023-06-01 | Deere & Company | Work machine distance prediction and action control |
CN116252581B (zh) * | 2023-03-15 | 2024-01-16 | 吉林大学 | 直线行驶工况车身垂向及俯仰运动信息估算系统及方法 |
CN117315035B (zh) * | 2023-11-30 | 2024-03-22 | 武汉未来幻影科技有限公司 | 一种车辆朝向的处理方法、装置以及处理设备 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10222665A (ja) * | 1997-01-31 | 1998-08-21 | Fujitsu Ten Ltd | 画像認識装置 |
JP3633469B2 (ja) * | 2000-10-06 | 2005-03-30 | 日産自動車株式会社 | 車間距離設定装置 |
US6714851B2 (en) * | 2002-01-07 | 2004-03-30 | Ford Global Technologies, Llc | Method for road grade/vehicle pitch estimation |
JP2003344190A (ja) * | 2002-05-24 | 2003-12-03 | Koyo Seiko Co Ltd | トルク検出装置及び舵角検出装置 |
JP5898475B2 (ja) * | 2011-11-28 | 2016-04-06 | クラリオン株式会社 | 車載カメラシステム及びその較正方法、及びその較正プログラム |
WO2017080451A1 (en) * | 2015-11-11 | 2017-05-18 | Zhejiang Dahua Technology Co., Ltd. | Methods and systems for binocular stereo vision |
KR20170070944A (ko) * | 2015-12-14 | 2017-06-23 | 현대오트론 주식회사 | 가속도 센서 및 자이로 센서를 이용한 차량 피치각 검출 장치 및 그 방법 |
US10019008B2 (en) * | 2016-09-28 | 2018-07-10 | Baidu Usa Llc | Sideslip compensated control method for autonomous vehicles |
US11334070B2 (en) * | 2017-08-10 | 2022-05-17 | Patroness, LLC | Systems and methods for predictions of state of objects for a motorized mobile system |
-
2018
- 2018-04-17 US US15/955,644 patent/US10769793B2/en active Active
-
2019
- 2019-01-15 CN CN201910034380.3A patent/CN110386142B/zh active Active
- 2019-04-15 JP JP2019077277A patent/JP6878493B2/ja active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023514163A (ja) * | 2020-04-24 | 2023-04-05 | 株式会社ストラドビジョン | 自動車のカメラピッチをキャリブレーションする方法及び装置、並びにそのための消滅点推定モデルをコンティニュアルラーニングさせる方法 |
JP7371269B2 (ja) | 2020-04-24 | 2023-10-30 | 株式会社ストラドビジョン | 自動車のカメラピッチをキャリブレーションする方法及び装置、並びにそのための消滅点推定モデルをコンティニュアルラーニングさせる方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6878493B2 (ja) | 2021-05-26 |
US20190318481A1 (en) | 2019-10-17 |
CN110386142B (zh) | 2022-08-12 |
US10769793B2 (en) | 2020-09-08 |
CN110386142A (zh) | 2019-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6878493B2 (ja) | 自動運転車両(adv)に用いるピッチ角の補正方法 | |
JP7050025B2 (ja) | 自動運転車両のための計画運転感知システム | |
JP6722312B2 (ja) | 自動運転に用いられる感知と計画のコラボレーションフレームワーク | |
CN110388931B (zh) | 将对象的二维边界框转换成自动驾驶车辆的三维位置的方法 | |
US10289110B2 (en) | Method to dynamically adjusting steering rates of autonomous vehicles | |
JP6517897B2 (ja) | 自律走行車用のバネシステムに基づく車線変更方法 | |
US10054945B2 (en) | Method for determining command delays of autonomous vehicles | |
JP2020015490A (ja) | 冗長超音波レーダを備える自律走行車{ autonomous driving vehicles with redundant ultrasonic radar } | |
JP2019182412A (ja) | 自動運転車に用いられる自動データラベリング | |
JP6543373B2 (ja) | 自動運転車両に用いられる制御型の計画と制御システム | |
JP2019189214A (ja) | 自動運転車の経路計画用のドリフト補正の方法 | |
JP6757442B2 (ja) | 自動運転車における車線後処理 | |
US11731612B2 (en) | Neural network approach for parameter learning to speed up planning for complex driving scenarios | |
US20210163037A1 (en) | Map-less and localization-less lane following method for autonomous driving of autonomous driving vehicles on highway | |
US11180160B2 (en) | Spiral curve based vertical parking planner system for autonomous driving vehicles | |
CN111044992A (zh) | 用于自动驾驶的基于交叉验证的自动lidar校准 | |
JP2019131177A (ja) | 複数のスレッドを使用して自動運転車両に用いられる基準線を生成するための方法及びシステム | |
JP2020083310A (ja) | 車両挙動予測のための圧縮環境特徴の表示 | |
CN111629947B (zh) | 自动驾驶车辆的用于生成参考线的方法和系统 | |
US11312380B2 (en) | Corner negotiation method for autonomous driving vehicles without map and localization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190516 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190516 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200526 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200707 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201007 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210413 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210428 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6878493 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |