JP2020122785A - V2x情報融合を利用してhdマップをアップデートするための自車両位置決定を遂行する方法及び装置 - Google Patents
V2x情報融合を利用してhdマップをアップデートするための自車両位置決定を遂行する方法及び装置 Download PDFInfo
- Publication number
- JP2020122785A JP2020122785A JP2020009529A JP2020009529A JP2020122785A JP 2020122785 A JP2020122785 A JP 2020122785A JP 2020009529 A JP2020009529 A JP 2020009529A JP 2020009529 A JP2020009529 A JP 2020009529A JP 2020122785 A JP2020122785 A JP 2020122785A
- Authority
- JP
- Japan
- Prior art keywords
- image
- distance
- specific
- information
- objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 230000004927 fusion Effects 0.000 title description 12
- 238000004891 communication Methods 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 10
- 238000011176 pooling Methods 0.000 claims description 7
- 230000002093 peripheral effect Effects 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3837—Data obtained from a single source
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3848—Data obtained from both position sensors and additional sensors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3863—Structures of map data
- G01C21/387—Organisation of map data, e.g. version management or database structures
- G01C21/3878—Hierarchical structures, e.g. layering
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
- G01S19/14—Receivers specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/40—Correcting position, velocity or attitude
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Electromagnetism (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Aviation & Aerospace Engineering (AREA)
- Navigation (AREA)
Abstract
Description
は第(1−2)特定参照物体のうち一つに対応する前記第(1−2)特定参照バウンディングボックスのうち一つの下段境界と前記基準点との間の前記参照イメージ上における見掛け距離(apparent distance)を意味する。
Claims (22)
- 相対的距離情報を利用して対象車両の正確な位置を計算する方法において、
(a)前記対象車両と連動するコンピューティング装置が、前記対象車両に搭載された少なくとも一つのカメラを介して少なくとも一つの参照イメージが取得されると、前記参照イメージに少なくとも一つの物体検出演算を適用して前記参照イメージ内の一つ以上の参照物体を検出する段階;
(b)前記コンピューティング装置が、前記参照イメージ上で、それぞれの前記参照物体に対応するそれぞれの参照バウンディングボックスに関する情報を参照して、前記参照物体それぞれと前記対象車両との間の一つ以上のイメージ基盤参照距離それぞれを計算する段階;及び
(c)前記コンピューティング装置が、前記参照物体それぞれと前記対象車両との間の一つ以上の座標基盤参照距離それぞれが取得されると、(i)前記座標基盤参照距離及び前記イメージ基盤参照距離を参照して少なくとも一つの距離誤差値を生成し、(ii)前記距離誤差値を参照して前記対象車両の対象位置情報をキャリブレーションする段階;
を含むことを特徴とする方法。 - 前記(b)段階で、
前記コンピューティング装置が、前記参照バウンディングボックスに、前記カメラのパラメータに関する情報を使用した少なくとも一つのイメージ距離予測演算を適用して前記イメージ基盤参照距離を計算し、
(i)前記イメージ基盤参照距離のうち一つ以上の第(1−1)特定イメージ基盤参照距離は、前記参照物体のうち一つ以上の第(1−1)特定参照物体と前記対象車両との間のV2X通信を介して取得された第(1−1)特定参照物体高さ情報を追加として使用する少なくとも一つの第(1−1)特定イメージ距離予測演算を第(1−1)特定参照バウンディングボックスに適用して生成され、(ii)前記イメージ基盤参照距離のうち一つ以上の第(1−2)特定イメージ基盤参照距離は、前記参照イメージ内の基準点に関する情報を追加として使用する少なくとも一つの第(1−2)特定イメージ距離予測演算を第(1−2)特定参照バウンディングボックスに適用して生成されることを特徴とする請求項1に記載の方法。 - (i)前記座標基盤参照距離のうちで一つ以上の第(2−1)特定座標基盤参照距離は、前記参照物体のうち一つ以上の第(2−1)特定参照物体と前記対象車両との間のV2X通信を介して取得された第(2−1)特定参照物体位置情報及び前記対象位置情報を参照して生成され、(ii)前記座標基盤参照距離のうち一つ以上の第(2−2)特定座標基盤参照距離は、データベースから取得された第(2−2)特定参照物体位置情報及び前記対象位置情報を参照して生成されることを特徴とする請求項1に記載の方法。
- 前記(a)段階で、
前記コンピューティング装置が、CNNをもって、少なくとも一つのコンボリューション演算と、少なくとも一つのROIプーリング演算と、少なくとも一つのFCネットワーク演算とを前記参照イメージに順次に適用させることによって、前記参照イメージに前記物体検出演算を適用することを特徴とする請求項1に記載の方法。 - 前記(c)段階で、
前記コンピューティング装置が、(i)前記対象位置情報を調整するプロセス、(ii)前記調整された対象位置情報を利用して前記距離誤差値を再度計算するプロセス、及び(iii)前記再度計算された距離誤差値が小さくなったか否かに関する情報を参照して前記調整された対象位置情報を再度調整するプロセスを繰り返すことによって、前記対象位置情報をキャリブレーションしてこれに対応する距離誤差値が最小化されるキャリブレーションされた対象位置情報を生成することを特徴とする請求項1に記載の方法。 - 前記(c)段階で、
前記コンピューティング装置が、HDマップをアップデートするために使用されるアップデート用情報を格納しつつ、前記キャリブレーションされた前記対象位置情報を参照して前記アップデート用情報が取得された位置に関する情報を格納することを特徴とする請求項1に記載の方法。 - 前記参照物体は、(i)V2X通信が可能な一つ以上のモバイル物体及び(ii)一つ以上の固定物体のうち少なくとも一部を含み、前記固定物体は(ii−1)前記V2X通信が可能であるか、(ii−2)前記固定物体に関する情報がデータベースに格納された状態であり、
前記参照物体は、前記対象車両から臨界距離未満の距離に位置する一つ以上の周辺車両と、一つ以上の交通標識と、一つ以上の信号灯と、一つ以上の路面標識とのうち少なくとも一部を含むことを特徴とする請求項1に記載の方法。 - 前記(c)段階で、
前記コンピューティング装置が、前記キャリブレーションされた対象位置情報を参照して、HDマップ上における前記対象車両の位置を計算し、前記対象車両から臨界距離未満の距離に位置する一つ以上の物体に関する情報を前記HDマップから取得することによって、前記対象車両の自律走行を支援することを特徴とする請求項1に記載の方法。 - 相対的距離情報を利用して対象車両の正確な位置を計算する装置において、
インストラクションを格納する少なくとも一つのメモリと、
(I)前記対象車両に搭載された少なくとも一つのカメラを介して少なくとも一つの参照イメージが取得されると、前記参照イメージに少なくとも一つの物体検出演算を適用して前記参照イメージ内の一つ以上の参照物体を検出するプロセス、(II)前記参照イメージ上で、それぞれの前記参照物体に対応するそれぞれの参照バウンディングボックスに関する情報を参照して、前記参照物体それぞれと前記対象車両との間の一つ以上のイメージ基盤参照距離それぞれを計算するプロセス、及び(III)前記参照物体それぞれと前記対象車両との間の一つ以上の座標基盤参照距離それぞれが取得されると、(i)前記座標基盤参照距離及び前記イメージ基盤参照距離を参照して少なくとも一つの距離誤差値を生成し、(ii)前記距離誤差値を参照して前記対象車両の対象位置情報をキャリブレーションするプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とする装置。 - 前記(II)プロセスで、
前記プロセッサが、前記参照バウンディングボックスに、前記カメラのパラメータに関する情報を使用した少なくとも一つのイメージ距離予測演算を適用して前記イメージ基盤参照距離を計算し、
(i)前記イメージ基盤参照距離のうち一つ以上の第(1−1)特定イメージ基盤参照距離は、前記参照物体のうち一つ以上の第(1−1)特定参照物体と前記対象車両との間のV2X通信を介して取得された第(1−1)特定参照物体高さ情報を追加として使用する少なくとも一つの第(1−1)特定イメージ距離予測演算を第(1−1)特定参照バウンディングボックスに適用して生成され、(ii)前記イメージ基盤参照距離のうち一つ以上の第(1−2)特定イメージ基盤参照距離は、前記参照イメージ内の基準点に関する情報を追加として使用する少なくとも一つの第(1−2)特定イメージ距離予測演算を第(1−2)特定参照バウンディングボックスに適用して生成されることを特徴とする請求項12に記載の装置。 - (i)前記座標基盤参照距離のうちで一つ以上の第(2−1)特定座標基盤参照距離は、前記参照物体のうち一つ以上の第(2−1)特定参照物体と前記対象車両との間のV2X通信を介して取得された第(2−1)特定参照物体位置情報及び前記対象位置情報を参照して生成され、(ii)前記座標基盤参照距離のうち一つ以上の第(2−2)特定座標基盤参照距離は、データベースから取得された第(2−2)特定参照物体位置情報及び前記対象位置情報を参照して生成されることを特徴とする請求項12に記載の装置。
- 前記(I)プロセスで、
前記プロセッサが、CNNをもって、少なくとも一つのコンボリューション演算と、少なくとも一つのROIプーリング演算と、少なくとも一つのFCネットワーク演算とを前記参照イメージに順次に適用させることによって、前記参照イメージに前記物体検出演算を適用することを特徴とする請求項12に記載の装置。 - 前記(III)プロセスで、
前記プロセッサが、(i)前記対象位置情報を調整するプロセス、(ii)前記調整された対象位置情報を利用して前記距離誤差値を再度計算するプロセス、及び(iii)前記再度計算された距離誤差値が小さくなったか否かに関する情報を参照して前記調整された対象位置情報を再度調整するプロセスを繰り返すことによって、前記対象位置情報をキャリブレーションしてこれに対応する距離誤差値が最小化されるキャリブレーションされた対象位置情報を生成することを特徴とする請求項12に記載の装置。 - 前記(III)プロセスで、
前記プロセッサが、HDマップをアップデートするために使用されるアップデート用情報を格納しつつ、前記キャリブレーションされた前記対象位置情報を参照して前記アップデート用情報が取得された位置に関する情報を格納することを特徴とする請求項12に記載の装置。 - 前記参照物体は、(i)V2X通信が可能な一つ以上のモバイル物体及び(ii)一つ以上の固定物体のうち少なくとも一部を含み、前記固定物体は(ii−1)前記V2X通信が可能であるか、(ii−2)前記固定物体に関する情報がデータベースに格納された状態であり、
前記参照物体は、前記対象車両から臨界距離未満の距離に位置する一つ以上の周辺車両と、一つ以上の交通標識と、一つ以上の信号灯と、一つ以上の路面標識とのうち少なくとも一部を含むことを特徴とする請求項12に記載の装置。 - 前記(III)プロセスで、
前記プロセッサが、前記キャリブレーションされた対象位置情報を参照して、HDマップ上における前記対象車両の位置を計算し、前記対象車両から臨界距離未満の距離に位置する一つ以上の物体に関する情報を前記HDマップから取得することによって、前記対象車両の自律走行を支援することを特徴とする請求項12に記載の装置。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962798686P | 2019-01-30 | 2019-01-30 | |
US62/798,686 | 2019-01-30 | ||
US16/725,181 US10803333B2 (en) | 2019-01-30 | 2019-12-23 | Method and device for ego-vehicle localization to update HD map by using V2X information fusion |
US16/725,181 | 2019-12-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020122785A true JP2020122785A (ja) | 2020-08-13 |
JP6986290B2 JP6986290B2 (ja) | 2021-12-22 |
Family
ID=69174388
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020009529A Active JP6986290B2 (ja) | 2019-01-30 | 2020-01-23 | V2x情報融合を利用してhdマップをアップデートするための自車両位置決定を遂行する方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10803333B2 (ja) |
EP (1) | EP3690400A1 (ja) |
JP (1) | JP6986290B2 (ja) |
KR (1) | KR102338763B1 (ja) |
CN (1) | CN111508018B (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11648945B2 (en) * | 2019-03-11 | 2023-05-16 | Nvidia Corporation | Intersection detection and classification in autonomous machine applications |
GB202013106D0 (en) * | 2020-08-21 | 2020-10-07 | Five Ai Ltd | Processing images for extracting information about known objects |
JP7379299B2 (ja) * | 2020-08-28 | 2023-11-14 | 株式会社東芝 | 位置姿勢推定装置、位置姿勢推定方法及びプログラム |
CN112418031B (zh) * | 2020-11-11 | 2022-03-11 | 腾讯科技(深圳)有限公司 | 图像识别方法和装置、存储介质及电子设备 |
CN113205701B (zh) * | 2021-04-25 | 2023-05-12 | 腾讯科技(深圳)有限公司 | 车路协同系统、基于车路协同的高程转换更新方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014096240A1 (en) * | 2012-12-19 | 2014-06-26 | Connaught Electronics Ltd. | Method for detecting a target object based on a camera image by clustering from multiple adjacent image cells, camera device and motor vehicle |
JP2017513020A (ja) * | 2014-04-09 | 2017-05-25 | コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト | 周囲の物体との照合による車両の位置修正 |
JP2018510373A (ja) * | 2015-02-10 | 2018-04-12 | モービルアイ ビジョン テクノロジーズ リミテッド | 自律車両ナビゲーションのための疎な地図 |
JP2018538612A (ja) * | 2015-11-04 | 2018-12-27 | エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. | オブジェクト検出のためのスケール依存プーリングによるカスケード型ニューラルネットワーク |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9327743B2 (en) * | 2013-12-19 | 2016-05-03 | Thales Canada Inc | Guideway mounted vehicle localization system |
US10133947B2 (en) * | 2015-01-16 | 2018-11-20 | Qualcomm Incorporated | Object detection using location data and scale space representations of image data |
US10948302B2 (en) * | 2015-08-03 | 2021-03-16 | Tomtom Global Content B.V. | Methods and systems for generating and using localization reference data |
CN112902974A (zh) | 2016-07-21 | 2021-06-04 | 御眼视觉技术有限公司 | 用于自主车辆导航的众包和分发稀疏地图以及车道测量 |
JP2019527832A (ja) | 2016-08-09 | 2019-10-03 | ナウト, インコーポレイテッドNauto, Inc. | 正確な位置特定およびマッピングのためのシステムおよび方法 |
US20180043829A1 (en) | 2016-08-10 | 2018-02-15 | Surround.IO Corporation | Method and Apparatus for Providing Automatic Mirror Setting Via Inward Facing Cameras |
KR20180112949A (ko) * | 2017-04-05 | 2018-10-15 | 현대자동차주식회사 | 차량의 자율 주행 제어 시스템 및 그를 이용한 자율 주행 제어방법 |
US10444759B2 (en) * | 2017-06-14 | 2019-10-15 | Zoox, Inc. | Voxel based ground plane estimation and object segmentation |
US10983199B2 (en) * | 2017-08-11 | 2021-04-20 | Zoox, Inc. | Vehicle sensor calibration and localization |
US9946960B1 (en) | 2017-10-13 | 2018-04-17 | StradVision, Inc. | Method for acquiring bounding box corresponding to an object in an image by using convolutional neural network including tracking network and computing device using the same |
CN108919320A (zh) * | 2018-05-17 | 2018-11-30 | 中国科学院微电子研究所 | 一种基于v2x的自动驾驶车辆定位方法及装置 |
-
2019
- 2019-12-23 US US16/725,181 patent/US10803333B2/en active Active
-
2020
- 2020-01-06 KR KR1020200001732A patent/KR102338763B1/ko active IP Right Grant
- 2020-01-08 CN CN202010017328.XA patent/CN111508018B/zh active Active
- 2020-01-16 EP EP20152190.3A patent/EP3690400A1/en active Pending
- 2020-01-23 JP JP2020009529A patent/JP6986290B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014096240A1 (en) * | 2012-12-19 | 2014-06-26 | Connaught Electronics Ltd. | Method for detecting a target object based on a camera image by clustering from multiple adjacent image cells, camera device and motor vehicle |
JP2017513020A (ja) * | 2014-04-09 | 2017-05-25 | コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト | 周囲の物体との照合による車両の位置修正 |
JP2018510373A (ja) * | 2015-02-10 | 2018-04-12 | モービルアイ ビジョン テクノロジーズ リミテッド | 自律車両ナビゲーションのための疎な地図 |
JP2018538612A (ja) * | 2015-11-04 | 2018-12-27 | エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. | オブジェクト検出のためのスケール依存プーリングによるカスケード型ニューラルネットワーク |
Also Published As
Publication number | Publication date |
---|---|
US10803333B2 (en) | 2020-10-13 |
CN111508018A (zh) | 2020-08-07 |
CN111508018B (zh) | 2023-10-31 |
KR102338763B1 (ko) | 2021-12-15 |
JP6986290B2 (ja) | 2021-12-22 |
US20200242378A1 (en) | 2020-07-30 |
KR20200094646A (ko) | 2020-08-07 |
EP3690400A1 (en) | 2020-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6986290B2 (ja) | V2x情報融合を利用してhdマップをアップデートするための自車両位置決定を遂行する方法及び装置 | |
KR102373466B1 (ko) | 거리 예측이 가능한 레이더를 통해 획득되는 정보와 카메라를 통해 획득되는 정보를 통합하는 센서 융합을 수행함으로써 자율 주행을 지원하는 뉴럴 네트워크를 향상시키는 학습 방법 및 학습 장치, 그리고 이를 사용한 테스트 방법 및 테스트 장치 | |
US10970873B2 (en) | Method and device to determine the camera position and angle | |
CN110386142A (zh) | 用于自动驾驶车辆的俯仰角校准方法 | |
JP7427614B2 (ja) | センサ較正 | |
JP6890350B2 (ja) | V2v通信を介して取得した情報とカメラを介して取得した情報とを融合してカメラのピッチキャリブレーションをより精巧に遂行することによって、カメラ基盤のロバスト物体距離の予測を提供する方法、及びこれを利用した装置 | |
CN110766760B (zh) | 用于相机标定的方法、装置、设备和存储介质 | |
US20200364883A1 (en) | Localization of a mobile unit by means of a multi-hypothesis kalman filter method | |
JP6986769B2 (ja) | 経路プランニングのための自律走行車両の位置を決定する方法及び装置 | |
KR20200043006A (ko) | 위치 추정 장치 및 방법 | |
US10796434B1 (en) | Method and device for detecting parking area using semantic segmentation in automatic parking system | |
JP2020135874A (ja) | ローカルセンシングベースの自律ナビゲーション、並びに関連するシステムおよび方法 | |
KR20200095379A (ko) | 자체적으로 생성된 정보 및 다른 개체에 의해 생성된 정보를 선택적으로 사용하여 카메라의 오정렬을 보정하는 방법 및 이를 이용한 장치 | |
CN110766761A (zh) | 用于相机标定的方法、装置、设备和存储介质 | |
JP2017181476A (ja) | 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム | |
KR20200095388A (ko) | 응급 차량을 실시간으로 검출하고, 응급 차량으로 인해 발생될 것으로 예상되는 상황에 대처하기 위한 주행 경로를 플래닝하는 방법 및 장치 | |
CN110728720A (zh) | 用于相机标定的方法、装置、设备和存储介质 | |
KR20220013439A (ko) | 고정밀지도생성장치 및 고정밀지도생성방법 | |
CN110751693A (zh) | 用于相机标定的方法、装置、设备和存储介质 | |
CN114694111A (zh) | 车辆定位 | |
CN113665591A (zh) | 无人驾驶控制方法、装置、设备及介质 | |
CN116295508A (zh) | 一种基于高精地图的路侧传感器标定方法、设备和系统 | |
CN115456898A (zh) | 停车场的建图方法、装置、车辆及存储介质 | |
EP4148392A1 (en) | Method and apparatus for vehicle positioning | |
CN114462545A (zh) | 一种基于语义slam的地图构建方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200123 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210126 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210616 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6986290 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |