JP2019182411A - オブジェクトの二次元境界枠を自動運転車両の三次元位置に転換するための方法[method for transforming 2d bounding boxes of objects into 3d positions for autonomous driving vehicles (advs)] - Google Patents
オブジェクトの二次元境界枠を自動運転車両の三次元位置に転換するための方法[method for transforming 2d bounding boxes of objects into 3d positions for autonomous driving vehicles (advs)] Download PDFInfo
- Publication number
- JP2019182411A JP2019182411A JP2019073584A JP2019073584A JP2019182411A JP 2019182411 A JP2019182411 A JP 2019182411A JP 2019073584 A JP2019073584 A JP 2019073584A JP 2019073584 A JP2019073584 A JP 2019073584A JP 2019182411 A JP2019182411 A JP 2019182411A
- Authority
- JP
- Japan
- Prior art keywords
- adv
- center
- image
- projected
- size
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 230000001131 transforming effect Effects 0.000 title abstract 2
- 238000012545 processing Methods 0.000 claims description 86
- 239000013598 vector Substances 0.000 claims description 53
- 238000010801 machine learning Methods 0.000 claims description 50
- 230000015654 memory Effects 0.000 claims description 40
- 238000010845 search algorithm Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 19
- 238000001514 detection method Methods 0.000 description 72
- 238000005259 measurement Methods 0.000 description 34
- 238000010586 diagram Methods 0.000 description 30
- 238000004891 communication Methods 0.000 description 26
- 238000009472 formulation Methods 0.000 description 22
- 239000000203 mixture Substances 0.000 description 22
- 230000006870 function Effects 0.000 description 18
- 230000001133 acceleration Effects 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000007405 data analysis Methods 0.000 description 8
- 230000001413 cellular effect Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 238000003491 array Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 239000003990 capacitor Substances 0.000 description 2
- 230000010267 cellular communication Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000009429 electrical wiring Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012417 linear regression Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000010076 replication Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000004043 responsiveness Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000010897 surface acoustic wave method Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/536—Depth or shape recovery from perspective effects, e.g. by using vanishing points
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Automation & Control Theory (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Aviation & Aerospace Engineering (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Geometry (AREA)
- Electromagnetism (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Traffic Control Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Analysis (AREA)
Abstract
Description
Claims (21)
- 自動運転車両(ADV)を動作させるためのコンピュータに実装された方法であって、
前記ADVに取り付けられた画像取得装置により、前記ADVの立体図からオブジェクトを検知するステップと、
前記画像取得装置により取得された前記オブジェクトの画像に基いて、前記オブジェクトの2D境界枠を生成するステップと、
前記オブジェクトの前記画像に基いて、前記オブジェクトの方位と3Dサイズを測定するステップと、
前記オブジェクトの方位と3Dサイズに基いて、前記オブジェクトの三次元(3D)ビューを前記画像に投影するステップと、
前記オブジェクトの3Dビューと前記生成された2D境界枠に基いて、前記ADVから前記オブジェクトまでの距離を測定するステップと、
前記ADVの運転を制御して前記オブジェクトを回避して操縦できるように、測定された前記ADVから前記オブジェクトまでの距離に基いて軌道を生成するステップと、を含むコンピュータに実装された方法。 - 前記オブジェクトの2D境界枠は、
前記オブジェクトの前記画像を取得するのに機械学習モデルを適用するステップと、
前記機械学習モデルに基いて、前記オブジェクトを囲む2D境界枠の長さ、幅又は面積を測定するステップと、
により生成される請求項1に記載のコンピュータに実装された方法。 - 前記投影された画像の寸法が前記2D境界枠の幅又は高さの所定閾値内になるまで、貪欲検索アルゴリズムにより前記投影された画像のサイズを検索するステップと、
前記サイズに基いて、前記ADVから前記オブジェクトまでの距離を測定するステップと、を更に含む請求項2に記載のコンピュータに実装された方法。 - 前記投影された画像の寸法が前記2D境界枠の幅、高さ又は面積の所定閾値内になるまで、二分探索アルゴリズムにより前記投影された画像のサイズを検索するステップと、
前記サイズに基いて、前記ADVから前記オブジェクトまでの距離を測定するステップと、を更に含む請求項2に記載のコンピュータに実装された方法。 - 前記測定された前記オブジェクトまでの距離に基いて、前記オブジェクトまでのセンターベクトルを決定するステップを更に含み、前記センターベクトルは、前記ADVを制御するように運転軌道を生成するために使用できるものである請求項1に記載のコンピュータに実装された方法。
- 前記オブジェクトまでのセンターベクトルを決定するステップは、
前記投影されたオブジェクトの中心が前記2D境界枠の2D中心における水平軸の中央に位置するまで、前記投影されたオブジェクトを左か右へシフトするステップと、
前記投影されたオブジェクトの中心が前記2D境界枠の2D中心における垂直軸の中央に位置するまで、前記投影されたオブジェクトを上か下へシフトするステップと、
前記投影されたオブジェクトのシフトと前記測定された前記オブジェクトまでの距離とに基いて、前記センターベクトルを決定するステップと、を含む請求項5に記載のコンピュータに実装された方法。 - 前記決定された前記オブジェクトまでのセンターベクトルに基いて、前記ADVを制御するステップを更に含む請求項6に記載のコンピュータに実装された方法。
- 命令が記憶された不揮発性の機械可読記憶媒体であって、
前記命令が一つ以上のプロセッサにより実行されると、前記一つ以上のプロセッサに処理を実行させ、前記処理は、
ADVに取り付けられた画像取得装置により、前記ADVの立体図からオブジェクトを検知するステップと、
前記画像取得装置により取得された前記オブジェクトの画像に基いて、前記オブジェクトの2D境界枠を生成するステップと、
前記オブジェクトの前記画像に基いて、前記オブジェクトの方位と3Dサイズを測定するステップと、
前記オブジェクトの方位と3Dサイズに基いて、前記オブジェクトの三次元(3D)ビューを前記画像に投影するステップと、
前記オブジェクトの3Dビューと前記生成された2D境界枠に基いて、前記ADVから前記オブジェクトまでの距離を測定するステップと、
前記ADVの運転を制御して前記オブジェクトを回避して操縦できるように、測定された前記ADVから前記オブジェクトまでの距離に基いて軌道を生成するステップと、を含む不揮発性の機械可読記憶媒体。 - 前記オブジェクトの2D境界枠は、
前記オブジェクトの前記画像を取得するのに機械学習モデルを適用するステップと、
前記機械学習モデルに基いて、前記オブジェクトを囲む2D境界枠の長さ、幅又は面積を測定するステップと、
により生成される請求項8に記載の不揮発性の機械可読記憶媒体。 - 前記投影された画像の寸法が前記2D境界枠の幅又は高さの所定閾値内になるまで、貪欲検索アルゴリズムにより前記投影された画像のサイズを検索するステップと、
前記サイズに基いて、前記ADVから前記オブジェクトまでの距離を測定するステップと、を更に含む請求項9に記載の不揮発性の機械可読記憶媒体。 - 前記投影された画像の寸法が前記2D境界枠の幅、高さ又は面積の所定閾値内になるまで、二分探索アルゴリズムにより前記投影された画像のサイズを検索するステップと、
前記サイズに基いて、前記ADVから前記オブジェクトまでの距離を測定するステップと、を更に含む請求項9に記載の不揮発性の機械可読記憶媒体。 - 前記測定された前記オブジェクトまでの距離に基いて、前記オブジェクトまでのセンターベクトルを決定するステップを更に含み、前記センターベクトルは、前記ADVを制御するように運転軌道を生成するために使用できるものである請求項8に記載の不揮発性の機械可読記憶媒体。
- 前記オブジェクトまでのセンターベクトルを決定するステップは、
前記投影されたオブジェクトの中心が前記2D境界枠の2D中心における水平軸の中央に位置するまで、前記投影されたオブジェクトを左か右へシフトするステップと、
前記投影されたオブジェクトの中心が前記2D境界枠の2D中心における垂直軸の中央に位置するまで、前記投影されたオブジェクトを上か下へシフトするステップと、
前記投影されたオブジェクトのシフトと前記測定された前記オブジェクトまでの距離とに基いて、前記センターベクトルを決定するステップと、を含む請求項12に記載の不揮発性の機械可読記憶媒体。 - 前記決定された前記オブジェクトまでのセンターベクトルに基いて前記ADVを制御することを更に含む請求項13に記載の不揮発性の機械可読記憶媒体。
- データ処理システムであって、
一つ以上のプロセッサと、
前記一つ以上のプロセッサに接続されて命令を記憶するメモリと、を備え、
前記命令が前記一つ以上のプロセッサにより実行されると、前記一つ以上のプロセッサに処理を実行させ、前記処理は、
ADVに取り付けられた画像取得装置により、前記ADVの立体図からオブジェクトを検知するステップと、
前記画像取得装置により取得された前記オブジェクトの画像に基いて、前記オブジェクトの2D境界枠を生成するステップと、
前記オブジェクトの前記画像に基いて、前記オブジェクトの方位と3Dサイズを測定するステップと、
前記オブジェクトの方位と3Dサイズに基いて、前記オブジェクトの三次元(3D)ビューを前記画像に投影するステップと、
前記オブジェクトの3Dビューと前記生成された2D境界枠に基いて、前記ADVから前記オブジェクトまでの距離を測定するステップと、
前記ADVの運転を制御して前記オブジェクトを回避して操縦できるように、測定された前記ADVから前記オブジェクトまでの距離に基いて軌道を生成するステップと、を含むシステム。 - 前記オブジェクトの2D境界枠は、
前記オブジェクトの前記画像を取得するのに機械学習モデルを適用するステップと、
前記機械学習モデルに基いて、前記オブジェクトを囲む2D境界枠の長さ、幅又は面積を測定するステップと、
により生成される請求項15に記載のシステム。 - 前記投影された画像の寸法が前記2D境界枠の幅又は高さの所定閾値内になるまで、貪欲検索アルゴリズムにより前記投影された画像のサイズを検索するステップと、
前記サイズに基いて、前記ADVから前記オブジェクトまでの距離を測定するステップと、を更に請求項16に記載のシステム。 - 前記投影された画像の寸法が前記2D境界枠の幅、高さ又は面積の所定閾値内になるまで、二分探索アルゴリズムにより前記投影された画像のサイズを検索するステップと、
前記サイズに基いて、前記ADVから前記オブジェクトまでの距離を測定するステップと、を更に含む請求項16に記載のシステム。 - 前記測定された前記オブジェクトまでの距離に基いて、前記オブジェクトまでのセンターベクトルを決定するステップを更に含み、前記センターベクトルは、前記ADVを制御するように運転軌道を生成するために使用できるものである請求項15に記載のシステム。
- 前記オブジェクトまでのセンターベクトルを決定するステップは、
前記投影されたオブジェクトの中心が前記2D境界枠の2D中心における水平軸の中央に位置するまで、前記投影されたオブジェクトを左か右へシフトするステップと、
前記投影されたオブジェクトの中心が前記2D境界枠の2D中心における垂直軸の中央に位置するまで、前記投影されたオブジェクトを上か下へシフトするステップと、
前記投影されたオブジェクトのシフトと前記測定された前記オブジェクトまでの距離とに基いて、前記センターベクトルを決定するステップと、を含む請求項19に記載のシステム。 - 前記決定された前記オブジェクトまでのセンターベクトルに基いて前記ADVを制御することを更に含む請求項20に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/955,634 US10816992B2 (en) | 2018-04-17 | 2018-04-17 | Method for transforming 2D bounding boxes of objects into 3D positions for autonomous driving vehicles (ADVs) |
US15/955,634 | 2018-04-17 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019182411A true JP2019182411A (ja) | 2019-10-24 |
JP6906011B2 JP6906011B2 (ja) | 2021-07-21 |
Family
ID=68161730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019073584A Active JP6906011B2 (ja) | 2018-04-17 | 2019-04-08 | オブジェクトの二次元境界枠を自動運転車両の三次元位置に転換するための方法[method for transforming 2d bounding boxes of objects into 3d positions for autonomous driving vehicles (advs)] |
Country Status (3)
Country | Link |
---|---|
US (1) | US10816992B2 (ja) |
JP (1) | JP6906011B2 (ja) |
CN (1) | CN110388931B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021132758A1 (ko) * | 2019-12-26 | 2021-07-01 | (주) 로탈 | 스테레오 카메라를 이용한 객체 위치 결정 시스템 |
JP2021100847A (ja) * | 2020-05-19 | 2021-07-08 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | 車両カーブ走行用情報処理方法及び装置 |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018176000A1 (en) | 2017-03-23 | 2018-09-27 | DeepScale, Inc. | Data synthesis for autonomous control systems |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US10839139B2 (en) | 2018-04-17 | 2020-11-17 | Adobe Inc. | Glyph aware snapping |
US11373411B1 (en) * | 2018-06-13 | 2022-06-28 | Apple Inc. | Three-dimensional object estimation using two-dimensional annotations |
US11215999B2 (en) | 2018-06-20 | 2022-01-04 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
EP3594902B1 (en) * | 2018-07-09 | 2021-04-07 | Argo AI GmbH | Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle |
US11361457B2 (en) | 2018-07-20 | 2022-06-14 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
KR102615196B1 (ko) * | 2018-08-21 | 2023-12-18 | 삼성전자주식회사 | 객체 검출 모델 트레이닝 장치 및 방법 |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
SG11202103493QA (en) | 2018-10-11 | 2021-05-28 | Tesla Inc | Systems and methods for training machine models with augmented data |
US11196678B2 (en) | 2018-10-25 | 2021-12-07 | Tesla, Inc. | QOS manager for system on a chip communications |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11188765B2 (en) * | 2018-12-04 | 2021-11-30 | Here Global B.V. | Method and apparatus for providing real time feature triangulation |
CN111292351A (zh) * | 2018-12-07 | 2020-06-16 | 星克跃尔株式会社 | 车辆检测方法及执行其的电子设备 |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US11783443B2 (en) | 2019-01-22 | 2023-10-10 | Fyusion, Inc. | Extraction of standardized images from a single view or multi-view capture |
US10887582B2 (en) | 2019-01-22 | 2021-01-05 | Fyusion, Inc. | Object damage aggregation |
US11176704B2 (en) * | 2019-01-22 | 2021-11-16 | Fyusion, Inc. | Object pose estimation in visual data |
US11338807B2 (en) * | 2019-01-30 | 2022-05-24 | Allstate Insurance Company | Dynamic distance estimation output generation based on monocular video |
US10997461B2 (en) | 2019-02-01 | 2021-05-04 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11150664B2 (en) | 2019-02-01 | 2021-10-19 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US10956755B2 (en) | 2019-02-19 | 2021-03-23 | Tesla, Inc. | Estimating object properties using visual image data |
US11482011B2 (en) | 2019-03-28 | 2022-10-25 | Intel Corporation | Acceleration of data processing for object detection |
US10846878B2 (en) * | 2019-03-28 | 2020-11-24 | Adobe Inc. | Multi-axis equal spacing smart guides |
US10832442B2 (en) * | 2019-03-28 | 2020-11-10 | Adobe Inc. | Displaying smart guides for object placement based on sub-objects of reference objects |
EP3745310A1 (en) * | 2019-05-28 | 2020-12-02 | Robert Bosch GmbH | Method for calibrating a multi-sensor system using an artificial neural network |
US11778934B2 (en) * | 2019-07-02 | 2023-10-10 | Bear Flag Robotics, Inc. | Agricultural lane following |
CN110807431A (zh) * | 2019-11-06 | 2020-02-18 | 上海眼控科技股份有限公司 | 对象定位方法、装置、电子设备及存储介质 |
US11703869B2 (en) * | 2019-11-26 | 2023-07-18 | Zoox, Inc. | Latency accommodation in trajectory generation |
EP3871192B1 (en) * | 2019-12-26 | 2024-03-27 | Google LLC | Orientation determination for mobile computing devices |
RU2757038C2 (ru) * | 2019-12-30 | 2021-10-11 | Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" | Способ и система для предсказания будущего события в беспилотном автомобиле (sdc) |
US11776142B2 (en) | 2020-01-16 | 2023-10-03 | Fyusion, Inc. | Structuring visual data |
US11562474B2 (en) | 2020-01-16 | 2023-01-24 | Fyusion, Inc. | Mobile multi-camera multi-view capture |
DE102020103741A1 (de) * | 2020-02-13 | 2021-08-19 | Car.Software Estonia As | Verfahren zur räumlichen Charakterisierung wenigstens einer Fahrzeugabbildung |
KR20210111557A (ko) * | 2020-03-03 | 2021-09-13 | 현대자동차주식회사 | 심층 학습 기반의 객체 분류 장치 및 그 방법 |
CN113591518B (zh) * | 2020-04-30 | 2023-11-03 | 华为技术有限公司 | 一种图像的处理方法、网络的训练方法以及相关设备 |
CN111626241B (zh) * | 2020-05-29 | 2023-06-23 | 北京华捷艾米科技有限公司 | 一种人脸检测方法及装置 |
CN112141087A (zh) * | 2020-06-24 | 2020-12-29 | 上汽通用五菱汽车股份有限公司 | 自动泊车过程的安全防护方法、装置、设备及存储介质 |
US11628856B2 (en) * | 2020-06-29 | 2023-04-18 | Argo AI, LLC | Systems and methods for estimating cuboids from LiDAR, map and image data |
CN111860227B (zh) | 2020-06-30 | 2024-03-08 | 阿波罗智能技术(北京)有限公司 | 训练轨迹规划模型的方法、装置和计算机存储介质 |
US11210533B1 (en) | 2020-08-09 | 2021-12-28 | Phantom AI, Inc. | Method of predicting trajectory of vehicle |
DE102020210188A1 (de) | 2020-08-12 | 2022-02-17 | Hitachi Astemo, Ltd. | Fahrzeugumgebungserkennungseinrichtung |
US11987236B2 (en) * | 2020-08-31 | 2024-05-21 | Nec Corporation | Monocular 3D object localization from temporal aggregation |
US11393184B2 (en) | 2020-11-13 | 2022-07-19 | Denso International America, Inc. | Systems and methods for adaptive bounding box selection |
US11738772B1 (en) * | 2020-12-18 | 2023-08-29 | Zoox, Inc. | Object avoidance with perceived safety subgoal |
US20210295013A1 (en) * | 2020-12-18 | 2021-09-23 | Beijing Baidu Netcom Science Technology Co., Ltd. | Three-dimensional object detecting method, apparatus, device, and storage medium |
US11972612B2 (en) * | 2021-02-18 | 2024-04-30 | Fca Us Llc | Techniques to automatically verify object detection, classification, and depth for automated driving systems |
US11605151B2 (en) | 2021-03-02 | 2023-03-14 | Fyusion, Inc. | Vehicle undercarriage imaging |
US11557129B2 (en) | 2021-04-27 | 2023-01-17 | Argo AI, LLC | Systems and methods for producing amodal cuboids |
CN113190003B (zh) * | 2021-05-06 | 2024-05-31 | 珠海格力智能装备有限公司 | Agv避障方法、装置、计算机可读存储介质和处理器 |
CN113312992A (zh) * | 2021-05-18 | 2021-08-27 | 中山方显科技有限公司 | 一种基于多源传感器信息融合的动态物体感知及预测方法 |
US11842544B2 (en) * | 2021-06-04 | 2023-12-12 | Fujitsu Limited | Automatic perspective transformation |
US11978259B2 (en) | 2021-07-09 | 2024-05-07 | Ford Global Technologies, Llc | Systems and methods for particle filter tracking |
CN114926534A (zh) * | 2022-05-16 | 2022-08-19 | 地平线(上海)人工智能技术有限公司 | 障碍物感知方法、装置、可读存储介质及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004145660A (ja) * | 2002-10-24 | 2004-05-20 | Fuji Heavy Ind Ltd | 障害物検出装置 |
JP2012094135A (ja) * | 2010-10-28 | 2012-05-17 | Raytheon Co | 基本安全メッセージデータを生成するためのシステムおよび方法 |
JP2015082326A (ja) * | 2013-10-23 | 2015-04-27 | トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド | 交差点における画像及び地図に基づく車両の検出法 |
JP2016224501A (ja) * | 2015-05-27 | 2016-12-28 | トヨタ自動車株式会社 | 衝突予測装置 |
JP2017165158A (ja) * | 2016-03-14 | 2017-09-21 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、および車両制御プログラム |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8842163B2 (en) * | 2011-06-07 | 2014-09-23 | International Business Machines Corporation | Estimation of object properties in 3D world |
US8736463B1 (en) * | 2012-01-30 | 2014-05-27 | Google Inc. | Object bounding box estimation |
US8718861B1 (en) * | 2012-04-11 | 2014-05-06 | Google Inc. | Determining when to drive autonomously |
US8527199B1 (en) * | 2012-05-17 | 2013-09-03 | Google Inc. | Automatic collection of quality control statistics for maps used in autonomous driving |
US8706417B2 (en) * | 2012-07-30 | 2014-04-22 | GM Global Technology Operations LLC | Anchor lane selection method using navigation input in road change scenarios |
US9221461B2 (en) * | 2012-09-05 | 2015-12-29 | Google Inc. | Construction zone detection using a plurality of information sources |
US9767366B1 (en) * | 2014-08-06 | 2017-09-19 | Waymo Llc | Using obstacle clearance to measure precise lateral |
US20160091325A1 (en) * | 2014-09-25 | 2016-03-31 | Nissan North America, Inc. | Method and system of assisting a driver of a vehicle |
US9904855B2 (en) * | 2014-11-13 | 2018-02-27 | Nec Corporation | Atomic scenes for scalable traffic scene recognition in monocular videos |
US9347779B1 (en) * | 2014-12-10 | 2016-05-24 | Here Global B.V. | Method and apparatus for determining a position of a vehicle based on driving behavior |
CA3067177A1 (en) * | 2015-02-10 | 2016-08-18 | Mobileye Vision Technologies Ltd. | Sparse map for autonomous vehicle navigation |
US20160357262A1 (en) * | 2015-06-05 | 2016-12-08 | Arafat M.A. ANSARI | Smart vehicle |
US10121082B2 (en) * | 2015-10-07 | 2018-11-06 | Honda Motor Co., Ltd. | System and method for providing laser camera fusion for identifying and tracking a traffic participant |
US9632502B1 (en) * | 2015-11-04 | 2017-04-25 | Zoox, Inc. | Machine-learning systems and techniques to optimize teleoperation and/or planner decisions |
US9606539B1 (en) * | 2015-11-04 | 2017-03-28 | Zoox, Inc. | Autonomous vehicle fleet service and system |
US9916703B2 (en) * | 2015-11-04 | 2018-03-13 | Zoox, Inc. | Calibration for autonomous vehicle operation |
US9910441B2 (en) * | 2015-11-04 | 2018-03-06 | Zoox, Inc. | Adaptive autonomous vehicle planner logic |
US9958864B2 (en) * | 2015-11-04 | 2018-05-01 | Zoox, Inc. | Coordination of dispatching and maintaining fleet of autonomous vehicles |
US9734455B2 (en) * | 2015-11-04 | 2017-08-15 | Zoox, Inc. | Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles |
CA3008886A1 (en) * | 2015-12-18 | 2017-06-22 | Iris Automation, Inc. | Real-time visual situational awareness system |
US20170297488A1 (en) * | 2016-04-19 | 2017-10-19 | GM Global Technology Operations LLC | Surround view camera system for object detection and tracking |
US10015537B2 (en) * | 2016-06-30 | 2018-07-03 | Baidu Usa Llc | System and method for providing content in autonomous vehicles based on perception dynamically determined at real-time |
US10037471B2 (en) * | 2016-07-05 | 2018-07-31 | Nauto Global Limited | System and method for image analysis |
EP3497405B1 (en) * | 2016-08-09 | 2022-06-15 | Nauto, Inc. | System and method for precision localization and mapping |
EP3549044A4 (en) * | 2016-12-02 | 2020-07-22 | Starsky Robotics, Inc. | VEHICLE CONTROL SYSTEM AND METHOD OF USE |
CN106709568B (zh) * | 2016-12-16 | 2019-03-22 | 北京工业大学 | 基于深层卷积网络的rgb-d图像的物体检测和语义分割方法 |
US10318827B2 (en) * | 2016-12-19 | 2019-06-11 | Waymo Llc | Object detection neural networks |
US10077047B2 (en) * | 2017-02-10 | 2018-09-18 | Waymo Llc | Using wheel orientation to determine future heading |
US10318822B2 (en) * | 2017-04-06 | 2019-06-11 | GM Global Technology Operations LLC | Object tracking |
US10460180B2 (en) * | 2017-04-20 | 2019-10-29 | GM Global Technology Operations LLC | Systems and methods for visual classification with region proposals |
US10488205B2 (en) * | 2017-05-22 | 2019-11-26 | Baidu Usa Llc | Method and system for updating maps based on control feedbacks of autonomous driving vehicles |
CN107316001A (zh) * | 2017-05-31 | 2017-11-03 | 天津大学 | 一种自动驾驶场景中小且密集的交通标志检测方法 |
US10310087B2 (en) * | 2017-05-31 | 2019-06-04 | Uber Technologies, Inc. | Range-view LIDAR-based object detection |
US10474157B2 (en) * | 2017-06-06 | 2019-11-12 | Baidu Usa Llc | Data-based control error detection and parameter compensation system |
US10031526B1 (en) * | 2017-07-03 | 2018-07-24 | Baidu Usa Llc | Vision-based driving scenario generator for autonomous driving simulation |
US20190079526A1 (en) * | 2017-09-08 | 2019-03-14 | Uber Technologies, Inc. | Orientation Determination in Object Detection and Tracking for Autonomous Vehicles |
US10438371B2 (en) * | 2017-09-22 | 2019-10-08 | Zoox, Inc. | Three-dimensional bounding box from two-dimensional image and point cloud data |
US11062461B2 (en) * | 2017-11-16 | 2021-07-13 | Zoox, Inc. | Pose determination from contact points |
US10769793B2 (en) * | 2018-04-17 | 2020-09-08 | Baidu Usa Llc | Method for pitch angle calibration based on 2D bounding box and its 3D distance for autonomous driving vehicles (ADVs) |
-
2018
- 2018-04-17 US US15/955,634 patent/US10816992B2/en active Active
- 2018-12-25 CN CN201811591235.7A patent/CN110388931B/zh active Active
-
2019
- 2019-04-08 JP JP2019073584A patent/JP6906011B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004145660A (ja) * | 2002-10-24 | 2004-05-20 | Fuji Heavy Ind Ltd | 障害物検出装置 |
JP2012094135A (ja) * | 2010-10-28 | 2012-05-17 | Raytheon Co | 基本安全メッセージデータを生成するためのシステムおよび方法 |
JP2015082326A (ja) * | 2013-10-23 | 2015-04-27 | トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド | 交差点における画像及び地図に基づく車両の検出法 |
JP2016224501A (ja) * | 2015-05-27 | 2016-12-28 | トヨタ自動車株式会社 | 衝突予測装置 |
JP2017165158A (ja) * | 2016-03-14 | 2017-09-21 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、および車両制御プログラム |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021132758A1 (ko) * | 2019-12-26 | 2021-07-01 | (주) 로탈 | 스테레오 카메라를 이용한 객체 위치 결정 시스템 |
JP2021100847A (ja) * | 2020-05-19 | 2021-07-08 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | 車両カーブ走行用情報処理方法及び装置 |
US11498583B2 (en) | 2020-05-19 | 2022-11-15 | Apollo Intelligent Connectivity (Beijing) Technology Co., Ltd. | Information processing method for vehicle driving on curve, electronic device and storage medium |
Also Published As
Publication number | Publication date |
---|---|
US20190317519A1 (en) | 2019-10-17 |
JP6906011B2 (ja) | 2021-07-21 |
CN110388931A (zh) | 2019-10-29 |
CN110388931B (zh) | 2023-11-10 |
US10816992B2 (en) | 2020-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6906011B2 (ja) | オブジェクトの二次元境界枠を自動運転車両の三次元位置に転換するための方法[method for transforming 2d bounding boxes of objects into 3d positions for autonomous driving vehicles (advs)] | |
JP6722312B2 (ja) | 自動運転に用いられる感知と計画のコラボレーションフレームワーク | |
JP6975512B2 (ja) | 自動運転車両の周辺車両の挙動に基づくリアルタイム感知調整と運転調整 | |
CN111076732B (zh) | 基于车辆行驶的轨迹标记和生成高清地图的标记方案 | |
CN111061261B (zh) | 使用标准导航地图与基于车辆的先前轨迹确定的车道配置的自动驾驶方法 | |
CN111824139B (zh) | 用于预测与自动驾驶车辆相关的运动对象的运动的方法 | |
JP2019206327A (ja) | 自動運転車両の軌道の生成方法 | |
JP2019182402A (ja) | 自動運転車両に用いられる検知支援 | |
KR20210069111A (ko) | 자율 주행 차량의 저속 정경을 위한 보행자 상호 작용 시스템 | |
JP2019182415A (ja) | 自動運転車両(adv)に用いるピッチ角の補正方法 | |
JP6975775B2 (ja) | 自動運転車両の高速道路における自動運転に用いる、地図及びポジショニングなしで車線に沿う走行方法 | |
JP2019204509A (ja) | 移動障害物を回避する自動運転のための運転経路の決定 | |
CN111857118B (zh) | 对停车轨迹分段以控制自动驾驶车辆停车 | |
US10496098B2 (en) | Road segment-based routing guidance system for autonomous driving vehicles | |
US11183059B2 (en) | Parking management architecture for parking autonomous driving vehicles | |
KR20200037737A (ko) | 자율 주행 차량을 위한 보행자 확률 예측 시스템 | |
CN111615476B (zh) | 用于自动驾驶车辆的基于螺旋曲线的竖直停车规划系统 | |
JP2019131177A (ja) | 複数のスレッドを使用して自動運転車両に用いられる基準線を生成するための方法及びシステム | |
US11136023B2 (en) | Method for determining exiting intersection of moving objects for autonomous driving vehicles | |
US11180145B2 (en) | Predetermined calibration table-based vehicle control system for operating an autonomous driving vehicle | |
CN111683851B (zh) | 用于自动驾驶的自反向车道的相互避开算法 | |
KR20200037123A (ko) | 에뮬레이션 기반의 자율 주행 차량의 3점 방향 전환 계획 | |
CN111649751B (zh) | 一种用于参考线平滑的超自由缝合方法 | |
CN111684379B (zh) | 自动驾驶车辆的三点转弯的最优规划器切换方法 | |
CN111629947B (zh) | 自动驾驶车辆的用于生成参考线的方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190520 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190520 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200713 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200721 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20201019 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210601 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210628 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6906011 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |