JP7282080B2 - 二次元画像および点群データからの三次元境界ボックス - Google Patents
二次元画像および点群データからの三次元境界ボックス Download PDFInfo
- Publication number
- JP7282080B2 JP7282080B2 JP2020516640A JP2020516640A JP7282080B2 JP 7282080 B2 JP7282080 B2 JP 7282080B2 JP 2020516640 A JP2020516640 A JP 2020516640A JP 2020516640 A JP2020516640 A JP 2020516640A JP 7282080 B2 JP7282080 B2 JP 7282080B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- bounding box
- point cloud
- cloud data
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30236—Traffic on road, railway or crossing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/22—Cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Electromagnetism (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Description
L=Lreg×con f-log(con f)×w (1)
A:三次元境界ボックスを推定するシステムであって、前記システムは、1つまたは複数のプロセッサによって実行されるとき、前記システムに、画像捕捉デバイスから捕捉された画像を受信することと、前記画像内の物体を検出することと、前記画像を切り取って前記物体を含む切り取られた画像を形成することと、前記物体と関連付けられた点群データを受信することと、前記点群データと関連付けられた第1の特徴ベクトルを判定することであって、前記第1の特徴ベクトルは、幾何学的特徴ベクトルを含む、ことと、前記切り取られた画像と関連付けられた第2の特徴ベクトルを判定することであって、前記第2の特徴ベクトルは、外観特徴ベクトルを含む、ことと、前記第1の特徴ベクトルおよび前記第2の特徴ベクトルをニューラルネットワークに渡すことと、前記ニューラルネットワークから、前記物体と関連付けられた三次元境界ボックスを記述した座標を受信することと、を実行させる命令を含む非一時的コンピュータ可読媒を含む。
Claims (17)
- 三次元境界ボックスを推定するシステムであって、前記システムは、1つまたは複数のプロセッサによって実行されるとき、前記システムに、
画像捕捉デバイスから捕捉された画像を受信することと、
前記画像内の物体を検出することと、
前記画像を切り取って前記物体を含む切り取られた画像を形成することと、
前記物体と関連付けられた点群データを受信することと、
前記点群データと関連付けられた全体幾何学的特徴ベクトルと、複数の点毎幾何学的特徴ベクトルとを判定することであって、前記複数の点毎幾何学的特徴ベクトルの個々は、前記点群データに含まれた複数の点の個々に関連付けられている、ことと、
前記切り取られた画像と関連付けられた外観特徴ベクトルを判定することと、
前記全体幾何学的特徴ベクトル、前記複数の点毎幾何学的特徴ベクトル、および前記外観特徴ベクトルをニューラルネットワークに渡すことと、
前記ニューラルネットワークから、前記点群データの各点毎に推定された点毎三次元境界ボックスの各角に関する空間オフセットを受信することと、
前記点群データの各点毎に推定された前記点毎三次元境界ボックスの各角に関する前記空間オフセットに少なくとも部分的に基づいて、前記物体と関連付けられた全体三次元境界ボックスを記述した座標を判定することと、
を実行させる命令を含む非一時的コンピュータ可読媒体を含むことを特徴とするシステム。 - 前記複数の点毎幾何学的特徴ベクトルを判定することは、前記複数の点毎幾何学的特徴ベクトルの1つ目が、前記点群データにおける第1の点に対応し、前記複数の点毎幾何学的特徴ベクトルの2つ目が、前記点群データにおける第2の点に対応することを含み、
前記空間オフセットを推定することは、
前記第1の点に対し、空間オフセットに関する第1の組と、空間オフセットに関する前記第1の組に対応する第1の信頼スコアを判定することであって、空間オフセットに関する前記第1の組が、前記第1の点に対する前記点毎三次元境界ボックスの角の第1の推定位置に対応する、ことと、
前記第2の点に対し、空間オフセットに関する第2の組と、空間オフセットに関する前記第2の組に対応する第2の信頼スコアを判定することであって、空間オフセットに関する前記第2の組は、前記第2の点に対する前記点毎三次元境界ボックスの前記角の第2の推定位置に対応する、ことと、を含み、
前記命令は、更に、前記システムに信頼スコアを判定させ、前記信頼スコアを判定することは、
前記第1の信頼スコアが前記第2の信頼スコアよりも高いときに前記第1の推定位置に対応する座標を判定することと、
前記第2の信頼スコアが前記第1の信頼スコアよりも高いときに前記第2の推定位置に対応する座標を判定することと
を含む、
ことを特徴とする請求項1に記載のシステム。 - 前記命令は、更に、前記システムに、未加工の点群データを処理するように構成された点群ニューラルネットワークの処理層から前記全体幾何学的特徴ベクトルおよび前記複数の点毎幾何学的特徴ベクトルを抽出させ、前記命令は、更に、前記システムに、残差学習ニューラルネットワークから前記外観特徴ベクトルを抽出させる、ことを特徴とする請求項1に記載のシステム。
- 前記ニューラルネットワークは、完全結合層の1つまたは複数を含み、
前記画像捕捉デバイスは、RGB画像を捕捉するように構成されたカメラを含み、
前記点群データを生成するセンサは、LIDARセンサまたはRADARセンサを含み、
前記センサからの前記RGB画像および前記点群データは、調整される、
ことを特徴とする請求項1に記載のシステム。 - 前記命令は更に、前記システムに、前記点群データを原点に変換することによって前記点群データを正規化させる、ことを特徴とする請求項1に記載のシステム。
- 前記座標は、8個の点を含み、前記8個の点の各々は、前記全体三次元境界ボックスのそれぞれの角と関連付けられている、ことを特徴とする請求項1に記載のシステム。
- 前記ニューラルネットワークは、点が前記点毎三次元境界ボックスの内部にあり、または前記点毎三次元境界ボックスの外側にあるかどうかを識別するデータセットを使用して、教師あり方式において訓練される、ことを特徴とする請求項1に記載のシステム。
- 前記ニューラルネットワークは、前記点毎三次元境界ボックスに対する回帰損失を含む境界ボックス損失関数を使用して訓練される、ことを特徴とする請求項1に記載のシステム。
- 前記命令は更に、前記システムに、
前記第1の点と関連付けられた前記切り取られた画像の第1の部分を判定することと、
前記第2の点と関連付けられた前記切り取られた画像の第2の部分を判定することと、を実行させ、
前記第1の部分または前記第2の部分のうちの少なくとも1つは、少なくとも部分的に双線形補間を使用して判定される、
ことを特徴とする請求項2に記載のシステム。 - 環境内の物体の三次元境界ボックスを推定する例示的なコンピュータによって実行される方法であって、
画像捕捉デバイスから前記環境の画像を受信するステップと、
前記環境と関連付けられた点群データを受信するステップであって、前記点群データは、複数の点を含む、ステップと、
前記画像内の物体を検出するステップと、
前記画像を切り取って前記物体の画像を含む切り取られた画像を形成するステップと、
前記切り取られた画像を第1のニューラルネットワークに入力するステップと、
前記点群データを第2のニューラルネットワークに入力するステップと、
前記第1のニューラルネットワークから前記切り取られた画像と関連付けられた外観特徴ベクトルを抽出するステップと、
前記第2のニューラルネットワークから前記点群データと関連付けられた全体幾何学的特徴ベクトルを抽出するステップと、
前記第2のニューラルネットワークから複数の点毎幾何学的特徴ベクトルを抽出するステップであって、前記複数の点毎幾何学的特徴ベクトルの個々は、前記複数の点の個々と関連付けられている、ステップと、
前記外観特徴ベクトル、前記全体幾何学的特徴ベクトル、および前記複数の点毎幾何学的特徴ベクトルを第3のニューラルネットワークに入力するステップと、
前記第3のニューラルネットワークから、前記点群データの各点毎に推定された点毎三次元境界ボックスの各角に関する空間オフセットを受信するステップと、
前記点群データの各点毎に推定された前記点毎三次元境界ボックスの各角に関する前記空間オフセットに少なくとも部分的に基づいて、前記物体と関連付けられた全体三次元境界ボックスと関連付けられた情報を判定するステップと、
を備えたことを特徴とするコンピュータによって実行される方法。 - 前記点毎三次元境界ボックスと関連付けられた前記空間オフセットを受信する前記ステップは、前記点群データにおける点に対する複数の変位を受信することを含み、前記変位は、前記点毎三次元境界ボックスの角に対応する、ことを特徴とする請求項10に記載のコンピュータによって実行される方法。
- 前記第3のニューラルネットワークは、前記点群データにおける点ごとに、複数の空間オフセットおよび信頼スコアを判定し、前記複数の空間オフセットは、それぞれの点に対する前記点毎三次元境界ボックスの推定された角からの変位を含み、前記全体三次元境界ボックスを判定する前記ステップは、最高信頼スコアを有する点と関連付けられたパラメータを判定することを含む、ことを特徴とする請求項10に記載のコンピュータによって実行される方法。
- 前記第3のニューラルネットワークは、前記点毎三次元境界ボックスに対する回帰損失を含む境界ボックス損失関数を使用して訓練される、ことを特徴とする請求項10に記載のコンピュータによって実行される方法。
- 前記第3のニューラルネットワークは、点が前記点毎三次元境界ボックスの内部にあり、または前記点毎三次元境界ボックスの外側にあるかどうかのインジケーションを使用して、教師あり方式において訓練される、ことを特徴とする請求項10に記載のコンピュータによって実行される方法。
- 前記画像の外観特徴ベクトル、前記全体幾何学的特徴ベクトル、および前記複数の点毎幾何学的特徴ベクトルを第3のニューラルネットワークに入力する前記ステップは、前記点毎幾何学的特徴ベクトルの各々の個々を前記全体幾何学的特徴ベクトルと連結することを含む、ことを特徴とする請求項10に記載のコンピュータによって実行される方法。
- 前記システムは、前記ニューラルネットワークから、前記点群データの各点毎の前記空間オフセットに関連付けられた信頼スコアを受信するようにさらに構成され、
前記点群データの各点毎に推定された前記点毎三次元境界ボックスの各角に関する前記空間オフセットに少なくとも部分的に基づいて、前記物体と関連付けられた全体三次元境界ボックスを記述した座標を判定することは、
前記点群データの各点毎の前記空間オフセットに関連付けられた信頼スコアに対応する前記点毎三次元境界ボックスを選択することにより、前記物体と関連付けられた前記全体三次元境界ボックスを記述する座標を判定すること
を含むことを特徴とする請求項1に記載のシステム。 - 前記第3のニューラルネットワークから、前記点群データの各点毎の前記空間オフセットに関連付けられた信頼スコアを受信するステップをさらに備え、
前記点群データの各点毎に推定された前記点毎三次元境界ボックスの各角に関する前記空間オフセットに少なくとも部分的に基づいて、前記物体と関連付けられた全体三次元境界ボックスと関連付けられた前記情報を判定するステップは、
前記点群データの各点毎の前記空間オフセットに関連付けられた前記信頼スコアに対応する前記点毎三次元境界ボックスを選択することにより、前記物体と関連付けられた全体三次元境界ボックスを記述する座標を判定するステップ
を含むことを特徴とする請求項10に記載のコンピュータによって実行される方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762562193P | 2017-09-22 | 2017-09-22 | |
US62/562,193 | 2017-09-22 | ||
US15/797,573 US10438371B2 (en) | 2017-09-22 | 2017-10-30 | Three-dimensional bounding box from two-dimensional image and point cloud data |
US15/797,573 | 2017-10-30 | ||
PCT/US2018/049129 WO2019060125A1 (en) | 2017-09-22 | 2018-08-31 | THREE-DIMENSIONAL DELIMITATION FRAMEWORK BASED ON TWO-DIMENSIONAL IMAGE DATA AND CLOUD OF POINTS |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020534617A JP2020534617A (ja) | 2020-11-26 |
JP7282080B2 true JP7282080B2 (ja) | 2023-05-26 |
Family
ID=65807708
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020516640A Active JP7282080B2 (ja) | 2017-09-22 | 2018-08-31 | 二次元画像および点群データからの三次元境界ボックス |
Country Status (5)
Country | Link |
---|---|
US (2) | US10438371B2 (ja) |
EP (1) | EP3685306A1 (ja) |
JP (1) | JP7282080B2 (ja) |
CN (2) | CN111108507B (ja) |
WO (1) | WO2019060125A1 (ja) |
Families Citing this family (104)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10002415B2 (en) * | 2016-04-12 | 2018-06-19 | Adobe Systems Incorporated | Utilizing deep learning for rating aesthetics of digital images |
CN110546651B (zh) * | 2017-04-27 | 2023-04-04 | 惠普发展公司,有限责任合伙企业 | 用于识别对象的方法、系统和计算机可读介质 |
US10438371B2 (en) * | 2017-09-22 | 2019-10-08 | Zoox, Inc. | Three-dimensional bounding box from two-dimensional image and point cloud data |
US10872228B1 (en) * | 2017-09-27 | 2020-12-22 | Apple Inc. | Three-dimensional object detection |
US11017550B2 (en) * | 2017-11-15 | 2021-05-25 | Uatc, Llc | End-to-end tracking of objects |
US11475351B2 (en) * | 2017-11-15 | 2022-10-18 | Uatc, Llc | Systems and methods for object detection, tracking, and motion prediction |
CN108229305B (zh) * | 2017-11-21 | 2021-06-04 | 北京市商汤科技开发有限公司 | 用于确定目标对象的外接框的方法、装置和电子设备 |
TWI651686B (zh) * | 2017-11-30 | 2019-02-21 | 國家中山科學研究院 | 一種光學雷達行人偵測方法 |
US10705216B2 (en) * | 2017-12-07 | 2020-07-07 | Institute For Information Industry | Three-dimensional point cloud tracking apparatus and method using recurrent neural network |
KR101982942B1 (ko) * | 2017-12-21 | 2019-05-27 | 건국대학교 산학협력단 | 객체 추적 방법 및 이를 수행하는 장치들 |
CN108225348B (zh) * | 2017-12-29 | 2021-08-24 | 百度在线网络技术(北京)有限公司 | 地图创建以及运动实体定位的方法和装置 |
US10657391B2 (en) * | 2018-01-05 | 2020-05-19 | Uatc, Llc | Systems and methods for image-based free space detection |
US10745005B2 (en) * | 2018-01-24 | 2020-08-18 | Ford Global Technologies, Llc | Inter-vehicle cooperation for vehicle self height estimation |
US11282389B2 (en) * | 2018-02-20 | 2022-03-22 | Nortek Security & Control Llc | Pedestrian detection for vehicle driving assistance |
US11423508B2 (en) * | 2018-02-26 | 2022-08-23 | Intel Corporation | Method and system of point cloud registration for image processing |
US10692183B2 (en) * | 2018-03-29 | 2020-06-23 | Adobe Inc. | Customizable image cropping using body key points |
US10816992B2 (en) * | 2018-04-17 | 2020-10-27 | Baidu Usa Llc | Method for transforming 2D bounding boxes of objects into 3D positions for autonomous driving vehicles (ADVs) |
US10852420B2 (en) * | 2018-05-18 | 2020-12-01 | Industrial Technology Research Institute | Object detection system, autonomous vehicle using the same, and object detection method thereof |
US11022693B1 (en) * | 2018-08-03 | 2021-06-01 | GM Global Technology Operations LLC | Autonomous vehicle controlled based upon a lidar data segmentation system |
CN112512300A (zh) * | 2018-08-08 | 2021-03-16 | 托罗公司 | 用于训练自主车辆的手柄和方法及其存放方法 |
US10915793B2 (en) * | 2018-11-08 | 2021-02-09 | Huawei Technologies Co., Ltd. | Method and system for converting point cloud data for use with 2D convolutional neural networks |
DK201970115A1 (en) | 2018-11-08 | 2020-06-09 | Aptiv Technologies Limited | DEEP LEARNING FOR OBJECT DETECTION USING PILLARS |
US11010592B2 (en) * | 2018-11-15 | 2021-05-18 | Toyota Research Institute, Inc. | System and method for lifting 3D representations from monocular images |
CN113168517A (zh) * | 2018-11-30 | 2021-07-23 | 高通股份有限公司 | 处理传感器信息以供对象检测 |
US11069081B1 (en) * | 2019-01-25 | 2021-07-20 | Google Llc | Location discovery |
US11087175B2 (en) * | 2019-01-30 | 2021-08-10 | StradVision, Inc. | Learning method and learning device of recurrent neural network for autonomous driving safety check for changing driving mode between autonomous driving mode and manual driving mode, and testing method and testing device using them |
JP7352368B2 (ja) * | 2019-03-29 | 2023-09-28 | 株式会社コーエーテクモゲームス | ゲーム操作学習プログラム、ゲームプログラム、ゲームプレイプログラム、及びゲーム操作学習方法 |
CN111857111A (zh) * | 2019-04-09 | 2020-10-30 | 商汤集团有限公司 | 对象三维检测及智能驾驶控制方法、装置、介质及设备 |
CN112132888B (zh) * | 2019-06-25 | 2024-04-26 | 黑芝麻智能科技(重庆)有限公司 | 大规模室内稀疏激光雷达点云内的单目相机定位 |
JP2021006011A (ja) * | 2019-06-27 | 2021-01-21 | 株式会社クボタ | 農作業車のための障害物検出システム |
US20210004566A1 (en) * | 2019-07-02 | 2021-01-07 | GM Global Technology Operations LLC | Method and apparatus for 3d object bounding for 2d image data |
WO2021007117A1 (en) * | 2019-07-05 | 2021-01-14 | DeepMap Inc. | Generating training data for deep learning models for building high definition maps |
US11195064B2 (en) * | 2019-07-11 | 2021-12-07 | Waymo Llc | Cross-modal sensor data alignment |
EP3767521A1 (en) * | 2019-07-15 | 2021-01-20 | Promaton Holding B.V. | Object detection and instance segmentation of 3d point clouds based on deep learning |
CN110363863B (zh) * | 2019-07-15 | 2023-09-12 | 上海点积实业有限公司 | 一种神经网络的输入数据生成方法和系统 |
US11176693B1 (en) * | 2019-07-24 | 2021-11-16 | Amazon Technologies, Inc. | Rapid point cloud alignment and classification with basis set learning |
AU2020326442A1 (en) * | 2019-08-05 | 2022-03-10 | Tellus You Care, Inc. | Non-contact identification of multi-person presence for elderly care |
DE112020003708T5 (de) * | 2019-08-06 | 2022-06-09 | Sony Group Corporation | Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm |
CN110490865B (zh) * | 2019-08-22 | 2022-04-01 | 易思维(杭州)科技有限公司 | 基于螺柱高反光特性的螺柱点云分割方法 |
EP3783525A1 (en) * | 2019-08-22 | 2021-02-24 | Argo AI GmbH | Method for detecting an object in surroundings of a vehicle, corresponding system and vehicle |
US11327178B2 (en) * | 2019-09-06 | 2022-05-10 | Volvo Car Corporation | Piece-wise network structure for long range environment perception |
US10614340B1 (en) * | 2019-09-23 | 2020-04-07 | Mujin, Inc. | Method and computing system for object identification |
CN110956194A (zh) * | 2019-10-10 | 2020-04-03 | 深圳先进技术研究院 | 三维点云的结构化方法、分类方法、设备及装置 |
DE102019127306A1 (de) * | 2019-10-10 | 2021-04-15 | Valeo Schalter Und Sensoren Gmbh | System und Verfahren zum Erfassen von Objekten in einer dreidimensionalen Umgebung eines Trägerfahrzeugs |
US11281917B2 (en) | 2019-10-31 | 2022-03-22 | Aptiv Technologies Limited | Multi-domain neighborhood embedding and weighting of point cloud data |
GB2591171B (en) | 2019-11-14 | 2023-09-13 | Motional Ad Llc | Sequential fusion for 3D object detection |
CN112907659A (zh) * | 2019-11-19 | 2021-06-04 | 阿里巴巴集团控股有限公司 | 移动设备定位系统、方法及设备 |
US11584377B2 (en) * | 2019-11-21 | 2023-02-21 | Gm Cruise Holdings Llc | Lidar based detection of road surface features |
CN113316801A (zh) * | 2019-12-09 | 2021-08-27 | 深圳市大疆创新科技有限公司 | 点云孔洞填充方法、装置和存储介质 |
CN113075922A (zh) * | 2019-12-17 | 2021-07-06 | 图森有限公司 | 来自多个传感器的数据集成 |
WO2021132758A1 (ko) * | 2019-12-26 | 2021-07-01 | (주) 로탈 | 스테레오 카메라를 이용한 객체 위치 결정 시스템 |
CN111223136B (zh) * | 2020-01-03 | 2024-04-23 | 三星(中国)半导体有限公司 | 稀疏2d点集的深度特征提取方法及装置 |
CN111208530B (zh) * | 2020-01-15 | 2022-06-17 | 北京四维图新科技股份有限公司 | 定位图层生成方法、装置、高精度地图及设备 |
CN111259829B (zh) * | 2020-01-19 | 2023-10-20 | 北京小马慧行科技有限公司 | 点云数据的处理方法和装置、存储介质及处理器 |
US11403764B2 (en) | 2020-02-14 | 2022-08-02 | Mujin, Inc. | Method and computing system for processing candidate edges |
CN111339880A (zh) * | 2020-02-19 | 2020-06-26 | 北京市商汤科技开发有限公司 | 一种目标检测方法及装置、电子设备和存储介质 |
US11804051B2 (en) * | 2020-02-25 | 2023-10-31 | Zebra Technologies Corporation | Parallel data capture system |
KR102551149B1 (ko) * | 2020-02-27 | 2023-07-03 | 애플 인크. | 포인트 클라우드 클러스터들의 공간적 관계들 |
US11195033B2 (en) * | 2020-02-27 | 2021-12-07 | Gm Cruise Holdings Llc | Multi-modal, multi-technique vehicle signal detection |
US11668799B2 (en) | 2020-03-20 | 2023-06-06 | Aptiv Technologies Limited | Histogram based L-shape detection of target objects |
CN111414888A (zh) * | 2020-03-31 | 2020-07-14 | 杭州博雅鸿图视频技术有限公司 | 低分辨率人脸识别方法、系统、装置及存储介质 |
CN113536867B (zh) * | 2020-04-22 | 2023-09-22 | 杭州海康威视数字技术股份有限公司 | 物体识别的方法、装置及系统 |
CN111709988B (zh) * | 2020-04-28 | 2024-01-23 | 上海高仙自动化科技发展有限公司 | 一种物体的特征信息的确定方法、装置、电子设备及存储介质 |
US10970645B1 (en) * | 2020-05-08 | 2021-04-06 | StradVision, Inc. | Method for explainable active learning, to be used for object detector, by using Bayesian dual autoencoder and active learning device using the same |
US11410356B2 (en) | 2020-05-14 | 2022-08-09 | Toyota Research Institute, Inc. | Systems and methods for representing objects using a six-point bounding box |
CN111738293A (zh) * | 2020-05-18 | 2020-10-02 | 北京百度网讯科技有限公司 | 点云数据的处理方法、装置、电子设备及可读存储介质 |
US11532096B2 (en) | 2020-05-21 | 2022-12-20 | Verizon Connect Development Limited | Systems and methods for utilizing a deep learning model to determine vehicle viewpoint estimations |
CN113763231B (zh) * | 2020-06-08 | 2024-02-09 | 北京京东乾石科技有限公司 | 模型生成方法、图像透视图确定方法、装置、设备及介质 |
KR20210152741A (ko) * | 2020-06-09 | 2021-12-16 | 삼성전자주식회사 | 첨단 운전자 지원 장치 및 이의 객체를 검출하는 방법 |
CN111722245B (zh) * | 2020-06-22 | 2023-03-10 | 阿波罗智能技术(北京)有限公司 | 定位方法、定位装置和电子设备 |
US11715277B2 (en) * | 2020-06-23 | 2023-08-01 | Tusimple, Inc. | Perception system for autonomous vehicles |
US11628856B2 (en) * | 2020-06-29 | 2023-04-18 | Argo AI, LLC | Systems and methods for estimating cuboids from LiDAR, map and image data |
US11527084B2 (en) * | 2020-07-10 | 2022-12-13 | Huawei Technologies Co., Ltd. | Method and system for generating a bird's eye view bounding box associated with an object |
CN111895931B (zh) * | 2020-07-17 | 2021-11-26 | 嘉兴泊令科技有限公司 | 一种基于计算机视觉的煤矿作业区标定方法 |
US11210533B1 (en) | 2020-08-09 | 2021-12-28 | Phantom AI, Inc. | Method of predicting trajectory of vehicle |
US11756317B2 (en) * | 2020-09-24 | 2023-09-12 | Argo AI, LLC | Methods and systems for labeling lidar point cloud data |
CN112102496B (zh) * | 2020-09-27 | 2024-03-26 | 安徽省农业科学院畜牧兽医研究所 | 牛体格测量方法、模型训练方法和系统 |
US11189049B1 (en) * | 2020-10-16 | 2021-11-30 | Ford Global Technologies, Llc | Vehicle neural network perception and localization |
EP3985411A1 (en) * | 2020-10-19 | 2022-04-20 | Aptiv Technologies Limited | Method and device for detecting objects |
CN112433193B (zh) * | 2020-11-06 | 2023-04-07 | 山东产研信息与人工智能融合研究院有限公司 | 一种基于多传感器的模位置定位方法及系统 |
US20220156972A1 (en) * | 2020-11-16 | 2022-05-19 | Waymo Llc | Long range distance estimation using reference objects |
CN112416018B (zh) * | 2020-11-24 | 2021-07-09 | 广东技术师范大学 | 基于多信号采集与路径规划模型的无人机避障方法和装置 |
CN112241204B (zh) * | 2020-12-17 | 2021-08-27 | 宁波均联智行科技股份有限公司 | 一种车载ar-hud的手势交互方法和系统 |
CN112509126A (zh) * | 2020-12-18 | 2021-03-16 | 北京百度网讯科技有限公司 | 三维物体检测的方法、装置、设备及存储介质 |
US11657719B2 (en) * | 2020-12-18 | 2023-05-23 | Zoox, Inc. | System for sparsely representing and storing geographic and map data |
US11733369B2 (en) * | 2021-02-11 | 2023-08-22 | Waymo Llc | Methods and systems for three dimensional object detection and localization |
CN113066124A (zh) * | 2021-02-26 | 2021-07-02 | 华为技术有限公司 | 一种神经网络的训练方法以及相关设备 |
CN112926475B (zh) * | 2021-03-08 | 2022-10-21 | 电子科技大学 | 一种人体三维关键点提取方法 |
RU2767831C1 (ru) * | 2021-03-26 | 2022-03-22 | Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" | Способы и электронные устройства для обнаружения объектов в окружении беспилотного автомобиля |
CN112801059B (zh) * | 2021-04-07 | 2021-07-20 | 广东众聚人工智能科技有限公司 | 图卷积网络系统和基于图卷积网络系统的3d物体检测方法 |
US11823465B2 (en) | 2021-04-13 | 2023-11-21 | Ford Global Technologies, Llc | Neural network object identification |
CN113255444A (zh) * | 2021-04-19 | 2021-08-13 | 杭州飞步科技有限公司 | 图像识别模型的训练方法、图像识别方法和装置 |
CN112862730B (zh) * | 2021-04-26 | 2021-07-27 | 深圳大学 | 点云特征增强方法、装置、计算机设备和存储介质 |
KR102343041B1 (ko) * | 2021-05-14 | 2021-12-24 | 주식회사 인피닉 | 3d 데이터에서 객체 자동 특정 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 |
CN113269820A (zh) * | 2021-05-26 | 2021-08-17 | 北京地平线信息技术有限公司 | 空间几何信息估计模型的生成方法和装置 |
US11978259B2 (en) | 2021-07-09 | 2024-05-07 | Ford Global Technologies, Llc | Systems and methods for particle filter tracking |
US11741631B2 (en) * | 2021-07-15 | 2023-08-29 | Vilnius Gediminas Technical University | Real-time alignment of multiple point clouds to video capture |
CN113645063B (zh) * | 2021-07-16 | 2024-03-19 | 上海德衡数据科技有限公司 | 基于边缘计算的智能集成数据的方法及系统 |
CN113780078B (zh) * | 2021-08-05 | 2024-03-19 | 广州西威科智能科技有限公司 | 无人驾驶视觉导航中故障物快速精准识别方法 |
US11966452B2 (en) * | 2021-08-05 | 2024-04-23 | Ford Global Technologies, Llc | Systems and methods for image based perception |
CN113538315B (zh) * | 2021-08-20 | 2024-02-02 | 支付宝(杭州)信息技术有限公司 | 图像处理方法及装置 |
CN113984037B (zh) * | 2021-09-30 | 2023-09-12 | 电子科技大学长三角研究院(湖州) | 一种基于任意方向目标候选框的语义地图构建方法 |
CN114862952B (zh) * | 2022-04-27 | 2024-03-19 | 江西理工大学 | 无人机检测与防御方法及系统 |
WO2023223765A1 (ja) * | 2022-05-18 | 2023-11-23 | 株式会社アイシン | 物体検知装置および物体検知方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009076096A (ja) | 2008-11-27 | 2009-04-09 | Mitsubishi Electric Corp | 対象特定装置 |
JP2017134814A (ja) | 2016-01-27 | 2017-08-03 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 点群データに基づく車両輪郭検出方法、および装置 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6996505B1 (en) * | 2000-06-21 | 2006-02-07 | Raindrop Geomagic, Inc. | Methods, apparatus and computer program products for automatically generating nurbs models of triangulated surfaces using homeomorphisms |
US8605998B2 (en) * | 2011-05-06 | 2013-12-10 | Toyota Motor Engineering & Manufacturing North America, Inc. | Real-time 3D point cloud obstacle discriminator apparatus and associated methodology for training a classifier via bootstrapping |
WO2014020364A1 (en) * | 2012-07-30 | 2014-02-06 | Zinemath Zrt. | System and method for generating a dynamic three-dimensional model |
WO2014169238A1 (en) * | 2013-04-11 | 2014-10-16 | Digimarc Corporation | Methods for object recognition and related arrangements |
US9037396B2 (en) * | 2013-05-23 | 2015-05-19 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
US9715761B2 (en) * | 2013-07-08 | 2017-07-25 | Vangogh Imaging, Inc. | Real-time 3D computer vision processing engine for object recognition, reconstruction, and analysis |
US20150131924A1 (en) * | 2013-11-13 | 2015-05-14 | Microsoft Corporation | Creation of Rectangular Images from Input Images |
TWI534755B (zh) * | 2013-11-20 | 2016-05-21 | 財團法人資訊工業策進會 | 三維立體模型之建立方法和裝置 |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9665791B2 (en) * | 2014-04-04 | 2017-05-30 | Massachusetts Institute Of Technology | System and method for extracting dominant orientations from a scene |
WO2015157643A1 (en) * | 2014-04-10 | 2015-10-15 | Vega-Avila Rolando | Solar energy forecasting |
US9846961B2 (en) * | 2014-04-30 | 2017-12-19 | Intel Corporation | System and method of limiting processing by a 3D reconstruction system of an environment in a 3D reconstruction of an event occurring in an event space |
US9858681B2 (en) * | 2014-10-27 | 2018-01-02 | Digimarc Corporation | Signal detection, recognition and tracking with feature vector transforms |
WO2016068869A1 (en) * | 2014-10-28 | 2016-05-06 | Hewlett-Packard Development Company, L.P. | Three dimensional object recognition |
US10043097B2 (en) * | 2015-03-10 | 2018-08-07 | Fringefy Ltd. | Image abstraction system |
US9881226B1 (en) * | 2015-09-24 | 2018-01-30 | Amazon Technologies, Inc. | Object relation builder |
EP3408848A4 (en) * | 2016-01-29 | 2019-08-28 | Pointivo Inc. | SYSTEMS AND METHOD FOR EXTRACTING INFORMATION ON OBJECTS FROM SCENE INFORMATION |
BR112018017232A2 (pt) * | 2016-02-29 | 2019-01-15 | Urugus S A | sistema para análise de escala planetária |
US10424065B2 (en) * | 2016-06-10 | 2019-09-24 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for performing three-dimensional semantic parsing of indoor spaces |
CN106295678B (zh) * | 2016-07-27 | 2020-03-06 | 北京旷视科技有限公司 | 神经网络训练与构建方法和装置以及目标检测方法和装置 |
US10304191B1 (en) * | 2016-10-11 | 2019-05-28 | Zoox, Inc. | Three dimensional bounding box estimation from two dimensional images |
KR102267553B1 (ko) * | 2016-11-15 | 2021-06-22 | 매직 립, 인코포레이티드 | 큐보이드 검출을 위한 딥 러닝 시스템 |
CN106651765A (zh) * | 2016-12-30 | 2017-05-10 | 深圳市唯特视科技有限公司 | 一种采用深度神经网络的缩略图自动生成的方法 |
US10096122B1 (en) * | 2017-03-28 | 2018-10-09 | Amazon Technologies, Inc. | Segmentation of object image data from background image data |
US10395144B2 (en) * | 2017-07-24 | 2019-08-27 | GM Global Technology Operations LLC | Deeply integrated fusion architecture for automated driving systems |
US10438371B2 (en) | 2017-09-22 | 2019-10-08 | Zoox, Inc. | Three-dimensional bounding box from two-dimensional image and point cloud data |
-
2017
- 2017-10-30 US US15/797,573 patent/US10438371B2/en active Active
-
2018
- 2018-08-31 JP JP2020516640A patent/JP7282080B2/ja active Active
- 2018-08-31 WO PCT/US2018/049129 patent/WO2019060125A1/en unknown
- 2018-08-31 CN CN201880061600.5A patent/CN111108507B/zh active Active
- 2018-08-31 CN CN202311797062.5A patent/CN117636331A/zh active Pending
- 2018-08-31 EP EP18778669.4A patent/EP3685306A1/en active Pending
-
2019
- 2019-08-30 US US16/557,997 patent/US11216971B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009076096A (ja) | 2008-11-27 | 2009-04-09 | Mitsubishi Electric Corp | 対象特定装置 |
JP2017134814A (ja) | 2016-01-27 | 2017-08-03 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 点群データに基づく車両輪郭検出方法、および装置 |
Non-Patent Citations (1)
Title |
---|
Xiaozhi Chen, Huimin Ma, Ji Wan, Bo Li, Tian Xia,Multi-View 3D Object Detection Network for Autonomous Driving,arXiv,米国,2016年11月23日,pp.1-9,https://arxiv.org/pdf/1611.07759v1.pdf |
Also Published As
Publication number | Publication date |
---|---|
JP2020534617A (ja) | 2020-11-26 |
US10438371B2 (en) | 2019-10-08 |
WO2019060125A1 (en) | 2019-03-28 |
CN117636331A (zh) | 2024-03-01 |
CN111108507B (zh) | 2024-01-12 |
EP3685306A1 (en) | 2020-07-29 |
US20190096086A1 (en) | 2019-03-28 |
CN111108507A (zh) | 2020-05-05 |
US20200005485A1 (en) | 2020-01-02 |
US11216971B2 (en) | 2022-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7282080B2 (ja) | 二次元画像および点群データからの三次元境界ボックス | |
US11361196B2 (en) | Object height estimation from monocular images | |
US11688161B2 (en) | Three dimensional bounding box estimation from two dimensional images | |
JP7433227B2 (ja) | センサーデータセグメンテーション | |
US10991156B2 (en) | Multi-modal data fusion for enhanced 3D perception for platforms | |
US9933264B2 (en) | System and method for achieving fast and reliable time-to-contact estimation using vision and range sensor data for autonomous navigation | |
US20200041276A1 (en) | End-To-End Deep Generative Model For Simultaneous Localization And Mapping | |
WO2020029758A1 (zh) | 对象三维检测及智能驾驶控制的方法、装置、介质及设备 | |
EP3414641B1 (en) | System and method for achieving fast and reliable time-to-contact estimation using vision and range sensor data for autonomous navigation | |
EP2671384B1 (en) | Mobile camera localization using depth maps | |
US20130129224A1 (en) | Combined depth filtering and super resolution | |
US20220058818A1 (en) | Object-centric three-dimensional auto labeling of point cloud data | |
US20220051425A1 (en) | Scale-aware monocular localization and mapping | |
US20230245373A1 (en) | System and method for generating a three-dimensional photographic image | |
CN113887400B (zh) | 障碍物检测方法、模型训练方法、装置及自动驾驶车辆 | |
CN112509126A (zh) | 三维物体检测的方法、装置、设备及存储介质 | |
JP2022034034A (ja) | 障害物検出方法、電子機器、路側機器、及びクラウド制御プラットフォーム | |
CN113378605B (zh) | 多源信息融合方法及装置、电子设备和存储介质 | |
US11417063B2 (en) | Determining a three-dimensional representation of a scene | |
Shade | Choosing where to go: mobile robot exploration | |
US20220108455A1 (en) | Rgbd video semantic segmentation with temporal and geometric consistency | |
CN117746417A (zh) | 目标检测模型构建方法、目标检测方法及相关装置 | |
CN117253133A (zh) | 目标检测方法、目标检测模型训练方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210820 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230418 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230516 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7282080 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |