JP7143269B2 - 車両挙動予測のための圧縮環境特徴の表示 - Google Patents
車両挙動予測のための圧縮環境特徴の表示 Download PDFInfo
- Publication number
- JP7143269B2 JP7143269B2 JP2019190973A JP2019190973A JP7143269B2 JP 7143269 B2 JP7143269 B2 JP 7143269B2 JP 2019190973 A JP2019190973 A JP 2019190973A JP 2019190973 A JP2019190973 A JP 2019190973A JP 7143269 B2 JP7143269 B2 JP 7143269B2
- Authority
- JP
- Japan
- Prior art keywords
- features
- adv
- target object
- extracting
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 33
- 238000013527 convolutional neural network Methods 0.000 claims description 28
- 238000012545 processing Methods 0.000 claims description 27
- 230000006399 behavior Effects 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims 2
- 238000004891 communication Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000002085 persistent effect Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 238000003491 array Methods 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 4
- 238000007405 data analysis Methods 0.000 description 4
- 230000001953 sensory effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000010267 cellular communication Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009429 electrical wiring Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 229910000078 germane Inorganic materials 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000002379 ultrasonic velocimetry Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Description
図1は本開示の一実施形態に係る自動運転車両のネットワーク構成を示すブロック図である。図1を参照して、ネットワーク構成100は、ネットワーク102を介して1つ又は複数のサーバ103~104に通信可能に接続される自動運転車両101を備える。1台の自動運転車両のみが示されているが、複数の自動運転車両はネットワーク102を介して互いに接続され、及び/又はサーバ103~104に接続されてもよい。ネットワーク102は、有線又は無線のローカルエリアネットワーク(LAN)、インターネットなどのワイドエリアネットワーク(WAN)、セルラーネットワーク、衛星ネットワーク又はそれらの組み合わせなどの任意のタイプのネットワークであってもよい。サーバ103~104は、Webサーバ又はクラウドサーバ、アプリケーションサーバ、バックエンドサーバ又はそれらの組み合わせなどの任意のタイプのサーバ又はサーバクラスタであってもよい。サーバ103~104は、データ解析サーバ、コンテンツサーバ、交通情報サーバ、地図・ポイントオブインタレスト(MPOI)サーバ又は位置サーバなどであってもよい。
図4は、実施形態に係るADVの運転環境を示すためのシステムが示されている。図4に示すように、予測モジュール303は、地理情報システム(GIS)ツールを用いて、地図・ルートデータ311のモジュールに格納された高精細(HD)地図401から複数の地図レイヤ402を抽出することができる。一実施形態において、地図レイヤは、道路車線、交通標識、静的オブジェクト、制限速度、及び一般道路情報などの特定のカテゴリ又はタイプの現実世界の実体を表す点、線、又はエリア(多角形)の特徴のクラスタを含むGISデータベースであってもよい。
Claims (19)
- 自動運転車両(ADV)の周囲環境を示すためのコンピュータによって実施される方法であって、
畳み込みニューラルネットワークを用いて高精細地図の前記ADVの視野角範囲に対応する範囲内から複数の特徴を抽出するステップであって、前記視野角が前記ADVの進行方向に対応するステップと、
抽出された複数の特徴と前記周囲環境における対象オブジェクトの複数のハンドクラフト特徴とを直列接続するステップと、
直列接続された特徴を用いて、前記畳み込みニューラルネットワークにより前記対象オブジェクトの1つ又は複数の挙動を予測するステップと、を備え、
前記ハンドクラフト特徴は、前記ADVの所定数の過去の走行サイクル内で取得された前記対象オブジェクトのプロパティを含む、自動運転車両(ADV)の周囲環境を示すためのコンピュータによって実施される方法。 - 前記高精細地図から複数の特徴を抽出するステップは、
前記高精細地図から複数のレイヤを抽出することと、
前記複数のレイヤを赤色、緑色及び青色(RGB)表示に変換することと、
前記畳み込みニューラルネットワークの1つ又は複数の畳み込み層を用いて前記RGB表示から前記複数の特徴を抽出することと、を備える請求項1に記載の方法。 - 前記対象オブジェクトのハンドクラフト特徴は、前記ADVの感知システムによって所定数の過去走行サイクルにおいて収集される請求項1に記載の方法。
- 前記ADVの走行サイクル毎に、抽出、直列接続及び予測を繰り返す請求項1に記載の方法。
- 前記高精細地図から抽出された前記複数のレイヤは、同じグリッドサイズセットを共有する請求項1に記載の方法。
- 前記畳み込みニューラルネットワークのオンライン推論を促進するために、前記高精細地図の抽出された特徴を予め計算してキャッシュする請求項1に記載の方法。
- 自動運転車両(ADV)の周囲環境を示すための指令が格納されている非一時的機械可読媒体であって、前記指令は、プロセッサによって実行されるときに、
畳み込みニューラルネットワークを用いて高精細地図の前記ADVの視野角範囲に対応する範囲内から複数の特徴を抽出するステップであって、前記視野角が前記ADVの進行方向に対応するステップと、
抽出された複数の特徴と前記周囲環境における対象オブジェクトの複数のハンドクラフト特徴とを直列接続するステップと、
直列接続された特徴を用いて、前記畳み込みニューラルネットワークにより前記対象オブジェクトの1つ又は複数の挙動を予測するステップと、を備える動作を前記プロセッサに実行させ、
前記ハンドクラフト特徴は、前記ADVの所定数の過去の走行サイクル内で取得された前記対象オブジェクトのプロパティを含む、非一時的機械可読媒体。 - 前記高精細地図から複数の特徴を抽出するステップは、
前記高精細地図から複数のレイヤを抽出することと、
前記複数のレイヤを赤色、緑色及び青色(RGB)表示に変換することと、
前記畳み込みニューラルネットワークの1つ又は複数の畳み込み層を用いて前記RGB表示から前記複数の特徴を抽出することと、を備える請求項7に記載の非一時的機械可読媒体。 - 前記対象オブジェクトのハンドクラフト特徴は、前記ADVの感知システムによって所定数の過去走行サイクルにおいて収集される請求項7に記載の非一時的機械可読媒体。
- 前記ADVの走行サイクル毎に、抽出、直列接続及び予測を繰り返す請求項7に記載の非一時的機械可読媒体。
- 前記高精細地図から抽出された前記複数のレイヤは、同じグリッドサイズセットを共有する請求項7に記載の非一時的機械可読媒体。
- 前記畳み込みニューラルネットワークのオンライン推論を促進するために、前記高精細地図の抽出された特徴を予め計算してキャッシュする請求項7に記載の非一時的機械可読媒体。
- プロセッサと、自動運転車両(ADV)の周囲環境を示すための命令を格納するために前記プロセッサに接続されるメモリとを備えるデータ処理システムであって、前記命令は、プロセッサによって実行されるときに、
畳み込みニューラルネットワークを用いて高精細地図の前記ADVの視野角範囲に対応する範囲内から複数の特徴を抽出するステップであって、前記視野角が前記ADVの進行方向に対応するステップと、
抽出された複数の特徴と前記周囲環境における対象オブジェクトの複数のハンドクラフト特徴とを直列接続するステップと、
直列接続された特徴を用いて、前記畳み込みニューラルネットワークにより前記対象オブジェクトの1つ又は複数の挙動を予測するステップと、を備える動作を前記プロセッサに実行させ、
前記ハンドクラフト特徴は、前記ADVの所定数の過去の走行サイクル内で取得された前記対象オブジェクトのプロパティを含む、データ処理システム。 - 前記高精細地図から複数の特徴を抽出するステップは、
前記高精細地図から複数のレイヤを抽出することと、
前記複数のレイヤを赤色、緑色及び青色(RGB)表示に変換することと、
前記畳み込みニューラルネットワークの1つ又は複数の畳み込み層を用いて前記RGB表示から前記複数の特徴を抽出することと、を備える請求項13に記載のシステム。 - 前記対象オブジェクトのハンドクラフト特徴は、前記ADVの感知システムによって所定数の過去走行サイクルにおいて収集される請求項13に記載のシステム。
- 前記ADVの走行サイクル毎に、抽出、直列接続及び予測を繰り返す請求項13に記載のシステム。
- 前記高精細地図から抽出された前記複数のレイヤは、同じグリッドサイズセットを共有する請求項13に記載のシステム。
- 前記畳み込みニューラルネットワークのオンライン推論を促進するために、前記高精細地図の抽出された特徴を予め計算してキャッシュする請求項13に記載のシステム。
- コンピュータプログラムであって、 前記コンピュータプログラムがプロセッサにより実行されると、請求項1~6のいずれか一項に記載の方法を実現する、コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/206,430 | 2018-11-30 | ||
US16/206,430 US11055857B2 (en) | 2018-11-30 | 2018-11-30 | Compressive environmental feature representation for vehicle behavior prediction |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020083310A JP2020083310A (ja) | 2020-06-04 |
JP7143269B2 true JP7143269B2 (ja) | 2022-09-28 |
Family
ID=67851067
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019190973A Active JP7143269B2 (ja) | 2018-11-30 | 2019-10-18 | 車両挙動予測のための圧縮環境特徴の表示 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11055857B2 (ja) |
EP (1) | EP3660735B1 (ja) |
JP (1) | JP7143269B2 (ja) |
CN (1) | CN111259712B (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10816979B2 (en) * | 2018-08-24 | 2020-10-27 | Baidu Usa Llc | Image data acquisition logic of an autonomous driving vehicle for capturing image data using cameras |
WO2020224761A1 (en) * | 2019-05-06 | 2020-11-12 | Zenuity Ab | Automated map making and positioning |
EP3943969A1 (en) * | 2020-07-24 | 2022-01-26 | Aptiv Technologies Limited | Methods and systems for predicting a trajectory of an object |
CN114257707A (zh) * | 2020-09-21 | 2022-03-29 | 安霸国际有限合伙企业 | 具有彩色夜间模式的智能ip摄像头 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004287931A (ja) | 2003-03-24 | 2004-10-14 | Doon:Kk | 地図データ提供システム、地図データ記憶装置の管理装置および管理方法 |
JP2018055141A (ja) | 2016-09-26 | 2018-04-05 | 日立オートモティブシステムズ株式会社 | 移動体軌道予測システム |
WO2018066712A1 (ja) | 2016-10-07 | 2018-04-12 | アイシン・エィ・ダブリュ株式会社 | 走行支援装置及びコンピュータプログラム |
JP2018084573A (ja) | 2016-11-23 | 2018-05-31 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | 頑健で効率的な車両測位用のアルゴリズム及びインフラ |
JP2018135068A (ja) | 2017-02-23 | 2018-08-30 | パナソニックIpマネジメント株式会社 | 情報処理システム、情報処理方法及びプログラム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3095189B2 (ja) * | 1991-09-10 | 2000-10-03 | 株式会社日立製作所 | ナビゲーション装置 |
KR101899877B1 (ko) * | 2012-04-04 | 2018-09-19 | 삼성전자주식회사 | 확대된 영상의 화질을 개선하기 위한 장치 및 방법 |
US20160292865A1 (en) * | 2015-04-02 | 2016-10-06 | Sportvision, Inc. | Automated framing and selective discard of parts of high resolution videos of large event space |
US9710714B2 (en) * | 2015-08-03 | 2017-07-18 | Nokia Technologies Oy | Fusion of RGB images and LiDAR data for lane classification |
US10459441B2 (en) * | 2016-12-30 | 2019-10-29 | Baidu Usa Llc | Method and system for operating autonomous driving vehicles based on motion plans |
US11308391B2 (en) * | 2017-03-06 | 2022-04-19 | Baidu Usa Llc | Offline combination of convolutional/deconvolutional and batch-norm layers of convolutional neural network models for autonomous driving vehicles |
US10282999B2 (en) * | 2017-03-17 | 2019-05-07 | GM Global Technology Operations LLC | Road construction detection systems and methods |
EP3602489B1 (en) | 2017-03-28 | 2023-08-23 | HRL Laboratories, LLC | Machine-vision method to classify input data based on object components |
US10262234B2 (en) * | 2017-04-24 | 2019-04-16 | Baidu Usa Llc | Automatically collecting training data for object recognition with 3D lidar and localization |
-
2018
- 2018-11-30 US US16/206,430 patent/US11055857B2/en active Active
-
2019
- 2019-09-04 EP EP19195434.6A patent/EP3660735B1/en active Active
- 2019-09-05 CN CN201910837269.8A patent/CN111259712B/zh active Active
- 2019-10-18 JP JP2019190973A patent/JP7143269B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004287931A (ja) | 2003-03-24 | 2004-10-14 | Doon:Kk | 地図データ提供システム、地図データ記憶装置の管理装置および管理方法 |
JP2018055141A (ja) | 2016-09-26 | 2018-04-05 | 日立オートモティブシステムズ株式会社 | 移動体軌道予測システム |
WO2018066712A1 (ja) | 2016-10-07 | 2018-04-12 | アイシン・エィ・ダブリュ株式会社 | 走行支援装置及びコンピュータプログラム |
JP2018084573A (ja) | 2016-11-23 | 2018-05-31 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | 頑健で効率的な車両測位用のアルゴリズム及びインフラ |
JP2018135068A (ja) | 2017-02-23 | 2018-08-30 | パナソニックIpマネジメント株式会社 | 情報処理システム、情報処理方法及びプログラム |
WO2018155265A1 (ja) | 2017-02-23 | 2018-08-30 | パナソニックIpマネジメント株式会社 | 情報処理システム、情報処理方法、プログラムと記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP2020083310A (ja) | 2020-06-04 |
CN111259712B (zh) | 2024-01-05 |
US11055857B2 (en) | 2021-07-06 |
US20200175695A1 (en) | 2020-06-04 |
CN111259712A (zh) | 2020-06-09 |
EP3660735B1 (en) | 2023-05-10 |
EP3660735A1 (en) | 2020-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7050025B2 (ja) | 自動運転車両のための計画運転感知システム | |
US11328219B2 (en) | System and method for training a machine learning model deployed on a simulation platform | |
JP6832421B2 (ja) | シミュレーションに基づく自動運転車の感知要求の評価方法 | |
JP7141370B2 (ja) | 標準的なナビゲーション地図と車両の過去の軌跡に基づいて決定された車線構成を利用した自動運転 | |
JP7222868B2 (ja) | オブジェクト挙動のリアルタイム予測 | |
JP7072581B2 (ja) | 自動運転車両の経路計画のための運転シナリオに基づく車線ガイドライン | |
JP6748244B2 (ja) | 自動運転車に用いられる学習に基づく速度計画装置 | |
KR102048646B1 (ko) | 자율 주행 차량 이동을 시뮬레이트하기 위한 물리 모델 및 머신 러닝과 결합된 방법 | |
JP6674019B2 (ja) | 自律走行車を運行させるための制御エラー補正計画方法 | |
US10019008B2 (en) | Sideslip compensated control method for autonomous vehicles | |
CN111380534B (zh) | 用于自动驾驶车辆的基于st图学习的方法 | |
CN111476079B (zh) | 将用于对象检测的地图特征与lidar合并的全面且有效的方法 | |
CN111856923B (zh) | 加速对复杂驾驶场景的规划的参数学习的神经网络方法 | |
JP7143269B2 (ja) | 車両挙動予測のための圧縮環境特徴の表示 | |
JP2018084573A (ja) | 頑健で効率的な車両測位用のアルゴリズム及びインフラ | |
JP2018531385A6 (ja) | 自律走行車を運行させるための制御エラー補正計画方法 | |
JP7149288B2 (ja) | 自動運転車両のための螺旋曲線に基づく垂直駐車計画システム | |
CN111240313A (zh) | 用于操作自动驾驶车辆的基于预定校准表的车辆控制系统 | |
CN113226825A (zh) | 自动驾驶车辆的基于扭矩反馈的车辆纵向自动校准系统 | |
CN111629947B (zh) | 自动驾驶车辆的用于生成参考线的方法和系统 | |
CN111655561B (zh) | 无需地图和定位的自动驾驶车辆的拐角协商方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191106 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210330 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210907 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211206 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220607 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220607 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220614 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220621 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220830 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220914 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7143269 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |