JP6908946B2 - 距離予測が可能なレーダを通じて取得される情報とカメラを通じて取得される情報とを統合するセンサ融合を遂行することによって、自律走行を支援するニューラルネットワークを向上させる学習方法及び学習装置、そしてこれを使用したテスト方法及びテスト装置 - Google Patents
距離予測が可能なレーダを通じて取得される情報とカメラを通じて取得される情報とを統合するセンサ融合を遂行することによって、自律走行を支援するニューラルネットワークを向上させる学習方法及び学習装置、そしてこれを使用したテスト方法及びテスト装置 Download PDFInfo
- Publication number
- JP6908946B2 JP6908946B2 JP2020007739A JP2020007739A JP6908946B2 JP 6908946 B2 JP6908946 B2 JP 6908946B2 JP 2020007739 A JP2020007739 A JP 2020007739A JP 2020007739 A JP2020007739 A JP 2020007739A JP 6908946 B2 JP6908946 B2 JP 6908946B2
- Authority
- JP
- Japan
- Prior art keywords
- test
- image
- information
- learning
- cnn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012360 testing method Methods 0.000 title claims description 256
- 238000000034 method Methods 0.000 title claims description 85
- 238000010998 test method Methods 0.000 title claims description 6
- 238000013528 artificial neural network Methods 0.000 title description 20
- 230000004927 fusion Effects 0.000 title description 17
- 238000013527 convolutional neural network Methods 0.000 claims description 117
- 238000004364 calculation method Methods 0.000 claims description 21
- 210000002569 neuron Anatomy 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 10
- 230000011218 segmentation Effects 0.000 claims description 5
- 238000003384 imaging method Methods 0.000 claims description 3
- 230000010354 integration Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 description 3
- 238000007500 overflow downdraw method Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/2163—Partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Electromagnetism (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Algebra (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
Description
本願発明は、距離予測が可能なレーダを通じて取得される情報とカメラを通じて取得される情報とを統合するセンサ融合を遂行することによって、自律走行を支援するニューラルネットワークを向上させる学習方法及び学習装置、そしてこれを使用したテスト方法及びテスト装置{LEARNING METHOD AND LEARNING DEVICE FOR SENSOR FUSION TO INTEGRATE INFORMATION ACQUIRED BY RADAR CAPABLE OF DISTANCE ESTIMATION AND INFORMATION ACQUIRED BY CAMERA TO THEREBY IMPROVE NEURAL NETWORK FOR SUPPORTING AUTONOMOUS DRIVING, AND TESTING METHOD AND TESTING DEVICE USING THE SAME}に関する。
Claims (18)
- 撮影状況が不適合であることにより、カメラを通じて取得される撮影イメージ(Photographed Image)上に少なくとも一つの物体が適合するように現れる確率である、前記撮影イメージの物体描写率(Object Depiction Ratio)が低くても、CNN(Convolutional Neural Network)が適合して作動するように前記カメラとレーダ(Radar)とを共に使用して前記CNNを学習する方法において、
(a)(i)学習装置と連動して作動する対象自動車上の前記カメラを通じて取得された前記撮影イメージ、及び(ii)前記対象自動車のレーダを通じて取得されたデプスイメージ(Depth Image)を使用して生成されたマルチチャンネル統合イメージ(Multichannel Integrated Image)が取得されると、前記学習装置が、前記CNN内の少なくとも一つのコンボリューションレイヤ(Convolutional Layer)をもって、前記マルチチャンネル統合イメージに対してコンボリューション演算を少なくとも一回適用させて、前記撮影イメージに関する情報と共に前記デプスイメージに関する情報も反映された少なくとも一つの特徴マップ(Feature Map)を生成させる段階;
(b)前記学習装置が、前記CNN内の少なくとも一つのアウトプットレイヤ(Output Layer)をもって、前記特徴マップに対してアウトプット演算を少なくとも一回適用させて、前記マルチチャンネル統合イメージ内の前記物体に関する予測物体情報(Estimated Object Information)を生成させる段階;及び
(c)前記学習装置が、前記CNN内の少なくとも一つのロスレイヤ(Loss Layer)をもって、前記予測物体情報及びこれに対応する原本正解(Ground Truth)物体情報を使用して少なくとも一つのロスを生成させ、前記ロスを使用してバックプロパーゲーションを遂行することによって、前記CNN内のパラメータのうち少なくとも一部を学習させる段階;
を含むことを特徴とし、
前記(a)段階で、
前記学習装置が、(i)前記デプスイメージを参照して、前記対象自動車からの前記物体の少なくとも一つの距離及び少なくとも一つの角度に関する情報を取得した後、(ii)前記距離及び前記角度に関する前記情報を参照して前記撮影イメージ上における前記物体のうち少なくとも一部に対応する少なくとも一つの物体座標を求め、(iii)前記物体座標と確率分布とを参照して生成された値をガイドチャンネルイメージ(Guide Channel Image)に含まれている、それに対応するピクセル値として設定して少なくとも一つの前記ガイドチャンネルイメージを生成した後、(iv)前記ガイドチャンネルイメージを前記撮影イメージとともにチャンネルごとに(Channel−wise)コンカチネート(Concatenating)することによって前記マルチチャンネル統合イメージを生成することを特徴とする方法。 - 前記(a)段階で、
前記学習装置が、前記物体座標のうち第1物体座標ないし第N物体座標と前記確率分布とを参照して下記数式による演算を遂行することによって、前記ガイドチャンネルイメージに、それに対応するピクセル値として含まれる前記値を算出し、
- 撮影状況が不適合であることにより、カメラを通じて取得される撮影イメージ(Photographed Image)上に少なくとも一つの物体が適合するように現れる確率である、前記撮影イメージの物体描写率(Object Depiction Ratio)が低くても、CNN(Convolutional Neural Network)が適合して作動するように前記カメラとレーダ(Radar)とを共に使用して前記CNNを学習する方法において、
(a)(i)学習装置と連動して作動する対象自動車上の前記カメラを通じて取得された前記撮影イメージ、及び(ii)前記対象自動車のレーダを通じて取得されたデプスイメージ(Depth Image)を使用して生成されたマルチチャンネル統合イメージ(Multichannel Integrated Image)が取得されると、前記学習装置が、前記CNN内の少なくとも一つのコンボリューションレイヤ(Convolutional Layer)をもって、前記マルチチャンネル統合イメージに対してコンボリューション演算を少なくとも一回適用させて、前記撮影イメージに関する情報と共に前記デプスイメージに関する情報も反映された少なくとも一つの特徴マップ(Feature Map)を生成させる段階;
(b)前記学習装置が、前記CNN内の少なくとも一つのアウトプットレイヤ(Output Layer)をもって、前記特徴マップに対してアウトプット演算を少なくとも一回適用させて、前記マルチチャンネル統合イメージ内の前記物体に関する予測物体情報(Estimated Object Information)を生成させる段階;及び
(c)前記学習装置が、前記CNN内の少なくとも一つのロスレイヤ(Loss Layer)をもって、前記予測物体情報及びこれに対応する原本正解(Ground Truth)物体情報を使用して少なくとも一つのロスを生成させ、前記ロスを使用してバックプロパーゲーションを遂行することによって、前記CNN内のパラメータのうち少なくとも一部を学習させる段階;
を含むことを特徴とし、
前記(b)段階で、
前記学習装置が、前記CNNと連動して作動するRPN(Region Proposal Network)をもって、前記特徴マップを参照して、前記マルチチャンネル統合イメージ上の前記物体のうち少なくとも一部の少なくとも一つの位置に対応する少なくとも一つの予測ROI(Region−Of−Interest)に関する情報を生成させ、FC(Fully−Connected)ネットワークの形態で具現された前記アウトプットレイヤをもって、前記予測ROIを参照して前記特徴マップに対して前記アウトプット演算を適用させることによって、前記マルチチャンネル統合イメージに対応する予測物体検出結果(Estimated Object Detection Result)を含む前記予測物体情報を生成させることを特徴とする方法。 - 前記(a)段階で、
前記学習装置が、前記コンボリューションレイヤに含まれているそれぞれのコンボリューションニューロン(Convolutional Neuron)をもって、少なくとも一つのそれ自体のパラメータを使用して、それ自体に入力された値に対して演算を適用した後、出力された値をそれ自体の次のコンボリューションニューロンに伝達するプロセスを繰り返すことによって、前記マルチチャンネル統合イメージに対して前記コンボリューション演算を適用させることを特徴とする請求項1に記載の方法。 - 前記(b)段階で、
前記学習装置が、前記コンボリューションレイヤに対応する少なくとも一つのデコンボリューションレイヤの形態で具現された前記アウトプットレイヤをもって、前記特徴マップに対して前記アウトプット演算を適用させることによって、前記マルチチャンネル統合イメージに対応する予測セグメンテーションイメージを含む前記予測物体情報を生成させることを特徴とする請求項1に記載の方法。 - 前記学習装置が、前記コンボリューションレイヤをもって、前記撮影イメージに関する情報とともに前記デプスイメージに関する情報も反映された前記特徴マップを生成させることによって、前記物体のうち前記物体描写率が閾値未満であるそれぞれの特定物体に関する情報が前記予測物体情報にさらに含まれ得るようにすることを特徴とする請求項1に記載の方法。
- 撮影状況が不適合であることにより、カメラを通じて取得される撮影イメージ(Photographed Image)上に少なくとも一つの物体が適合するように現れる確率である、前記撮影イメージの物体描写率(Object Depiction Ratio)が低くても、CNN(Convolutional Neural Network)が適合して作動するように前記カメラとレーダ(Radar)とを共に使用して前記CNNをテストする方法において、
(a)(1)(i)学習装置と連動して作動する学習用対象自動車上の学習用カメラを通じて取得された学習用撮影イメージと、(ii)前記学習用対象自動車の学習用レーダを通じて取得された学習用デプスイメージ(Depth Image)を使用して生成された学習用マルチチャンネル統合イメージ(Multichannel Integrated Image)とが取得されると、前記学習装置が、前記CNN内の少なくとも一つのコンボリューションレイヤ(Convolutional Layer)をもって、前記学習用マルチチャンネル統合イメージに対してコンボリューション演算を少なくとも一回適用させて、前記学習用撮影イメージに関する情報と共に前記学習用デプスイメージに関する情報も反映された少なくとも一つの学習用特徴マップ(Feature Map)を生成させ、(2)前記学習装置が、前記CNN内の少なくとも一つのアウトプットレイヤ(Output Layer)をもって、前記学習用特徴マップに対してアウトプット演算を少なくとも一回適用させて、前記学習用マルチチャンネル統合イメージ内の前記学習用物体に関する学習用予測物体情報(Estimated Object Information)を生成させ、(3)前記学習装置が、前記CNN内の少なくとも一つのロスレイヤ(Loss Layer)をもって、前記学習用予測物体情報及びこれに対応する原本正解(Ground Truth)物体情報を使用して少なくとも一つのロスを生成させ、前記ロスを使用してバックプロパーゲーションを遂行することによって、前記CNN内のパラメータのうち少なくとも一部を学習させた状態で、テスト装置が、前記CNN内の前記コンボリューションレイヤをもって、(i)前記テスト装置と連動して作動するテスト用対象自動車上のテスト用カメラを通じて取得されたテスト用撮影イメージと、(ii)前記テスト用対象自動車のテスト用レーダを通じて取得されたテスト用デプスイメージとを使用して生成されたテスト用マルチチャンネル統合イメージに対して前記コンボリューション演算を少なくとも一回適用させて、前記テスト用撮影イメージに関する情報と共に前記テスト用デプスイメージに関する情報も反映された少なくとも一つのテスト用特徴マップを生成させる段階;及び
(b)前記テスト装置が、前記CNN内の前記アウトプットレイヤをもって、前記テスト用特徴マップに対して前記アウトプット演算を適用させて、前記テスト用マルチチャンネル統合イメージ内の前記テスト用物体に関するテスト用予測物体情報を生成させる段階;
を含むことを特徴とし、
前記(a)段階で、
前記テスト装置が、(i)前記テスト用デプスイメージを参照して前記テスト用対象自動車からの前記テスト用物体の少なくとも一つのテスト用距離及び少なくとも一つのテスト用角度に関するテスト用情報を取得した後、(ii)前記テスト用距離及び前記テスト用角度に関する前記テスト用情報を参照して前記テスト用撮影イメージ上における前記テスト用物体のうち少なくとも一部に対応する少なくとも一つのテスト用物体座標を求め、(iii)前記テスト用物体座標とテスト用確率分布とを参照して生成された値をテスト用ガイドチャンネルイメージ(Guide Channel Image)に含まれている、それに対応するテスト用ピクセル値として設定して少なくとも一つの前記テスト用ガイドチャンネルイメージを生成した後、(iv)前記テスト用ガイドチャンネルイメージを前記テスト用撮影イメージとともにチャンネルごとに(Channel−wise)コンカチネート(Concatenating)することによって前記テスト用マルチチャンネル統合イメージを生成することを特徴とする方法。 - 前記(a)段階で、
前記テスト装置が、前記テスト用物体座標のうちテスト用第1物体座標ないしテスト用第N物体座標と前記テスト用確率分布とを参照して下記数式による演算を遂行することによって、前記テスト用ガイドチャンネルイメージに、それに対応するテスト用ピクセル値として含まれる前記値を算出し、
- 前記テスト装置が、前記コンボリューションレイヤをもって、前記テスト用撮影イメージに関する情報と共に前記テスト用デプスイメージに関する情報も反映された前記テスト用特徴マップを生成させることによって、前記テスト用物体のうち前記物体描写率が閾値未満であるそれぞれの特定のテスト用物体に関する情報が前記テスト用予測物体情報にさらに含まれ得るようにし、
(c)前記テスト装置が、前記テスト用予測物体情報を前記テスト用対象自動車上の少なくとも一つの自律走行モジュールに伝達することによって、前記テスト用対象自動車の自律走行を支援する段階;
をさらに含むことを特徴とする請求項7に記載の方法。 - 撮影状況が不適合であることにより、カメラを通じて取得される撮影イメージ(Photographed Image)上に少なくとも一つの物体が適合するように現れる確率である、前記撮影イメージの物体描写率(Object Depiction Ratio)が低くても、CNN(Convolutional Neural Network)が適合して作動するように前記カメラとレーダ(Radar)とを共に使用して前記CNNを学習する学習装置において、
インストラクションを格納する少なくとも一つのメモリと、
(I)(i)学習装置と連動して作動する対象自動車上の前記カメラを通じて取得された前記撮影イメージ、及び(ii)前記対象自動車のレーダを通じて取得されたデプスイメージ(Depth Image)を使用して生成されたマルチチャンネル統合イメージ(Multichannel Integrated Image)が取得されると、前記CNN内の少なくとも一つのコンボリューションレイヤ(Convolutional Layer)をもって、前記マルチチャンネル統合イメージに対してコンボリューション演算を少なくとも一回適用させて、前記撮影イメージに関する情報と共に前記デプスイメージに関する情報も反映された少なくとも一つの特徴マップ(Feature Map)を生成させるプロセス、(II)前記CNN内の少なくとも一つのアウトプットレイヤ(Output Layer)をもって、前記特徴マップに対してアウトプット演算を少なくとも一回適用させて、前記マルチチャンネル統合イメージ内の前記物体に関する予測物体情報(Estimated Object Information)を生成させるプロセス、及び(III)前記CNN内の少なくとも一つのロスレイヤ(Loss Layer)をもって、前記予測物体情報及びこれに対応する原本正解(Ground Truth)物体情報を使用して少なくとも一つのロスを生成させ、前記ロスを使用してバックプロパーゲーションを遂行することによって、前記CNN内のパラメータのうち少なくとも一部を学習させるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とし、
前記(I)プロセスで、
前記プロセッサが、(i)前記デプスイメージを参照して前記対象自動車からの前記物体の少なくとも一つの距離及び少なくとも一つの角度に関する情報を取得した後、(ii)前記距離及び前記角度に関する前記情報を参照して前記撮影イメージ上における前記物体のうち少なくとも一部に対応する少なくとも一つの物体座標を求め、(iii)前記物体座標と確率分布とを参照して生成された値をガイドチャンネルイメージ(Guide Channel Image)に含まれている、それに対応するピクセル値として設定して少なくとも一つの前記ガイドチャンネルイメージを生成した後、(iv)前記ガイドチャンネルイメージを前記撮影イメージとともにチャンネルごとに(Channel−wise)コンカチネート(Concatenating)することによって前記マルチチャンネル統合イメージを生成することを特徴とする装置。 - 前記(I)プロセスで、
前記プロセッサが、前記物体座標のうち第1物体座標ないし第N物体座標と前記確率分布とを参照して下記数式による演算を遂行することによって、前記ガイドチャンネルイメージに、それに対応するピクセル値として含まれる前記値を算出し、
- 撮影状況が不適合であることにより、カメラを通じて取得される撮影イメージ(Photographed Image)上に少なくとも一つの物体が適合するように現れる確率である、前記撮影イメージの物体描写率(Object Depiction Ratio)が低くても、CNN(Convolutional Neural Network)が適合して作動するように前記カメラとレーダ(Radar)とを共に使用して前記CNNを学習する学習装置において、
インストラクションを格納する少なくとも一つのメモリと、
(I)(i)学習装置と連動して作動する対象自動車上の前記カメラを通じて取得された前記撮影イメージ、及び(ii)前記対象自動車のレーダを通じて取得されたデプスイメージ(Depth Image)を使用して生成されたマルチチャンネル統合イメージ(Multichannel Integrated Image)が取得されると、前記CNN内の少なくとも一つのコンボリューションレイヤ(Convolutional Layer)をもって、前記マルチチャンネル統合イメージに対してコンボリューション演算を少なくとも一回適用させて、前記撮影イメージに関する情報と共に前記デプスイメージに関する情報も反映された少なくとも一つの特徴マップ(Feature Map)を生成させるプロセス、(II)前記CNN内の少なくとも一つのアウトプットレイヤ(Output Layer)をもって、前記特徴マップに対してアウトプット演算を少なくとも一回適用させて、前記マルチチャンネル統合イメージ内の前記物体に関する予測物体情報(Estimated Object Information)を生成させるプロセス、及び(III)前記CNN内の少なくとも一つのロスレイヤ(Loss Layer)をもって、前記予測物体情報及びこれに対応する原本正解(Ground Truth)物体情報を使用して少なくとも一つのロスを生成させ、前記ロスを使用してバックプロパーゲーションを遂行することによって、前記CNN内のパラメータのうち少なくとも一部を学習させるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とし、
前記(II)プロセスで、
前記プロセッサが、前記CNNと連動して作動するRPN(Region Proposal Network)をもって、前記特徴マップを参照して前記マルチチャンネル統合イメージ上の前記物体のうち少なくとも一部の少なくとも一つの位置に対応する少なくとも一つの予測ROI(Region−Of−Interest)に関する情報を生成させ、FC(Fully−Connected)ネットワークの形態で具現された前記アウトプットレイヤをもって、前記予測ROIを参照して前記特徴マップに対して前記アウトプット演算を適用させることによって、前記マルチチャンネル統合イメージに対応する予測物体検出結果(Estimated Object Detection Result)を含む前記予測物体情報を生成させることを特徴とする装置。 - 前記(I)プロセスで、
前記プロセッサが、前記コンボリューションレイヤに含まれているそれぞれのコンボリューションニューロン(Convolutional Neuron)をもって、少なくとも一つのそれ自体のパラメータを使用して、それ自体に入力された値に対して演算を適用した後、出力された値をそれ自体の次のコンボリューションニューロンに伝達するプロセスを繰り返すことによって、前記マルチチャンネル統合イメージに対して前記コンボリューション演算を適用させることを特徴とする請求項10に記載の装置。 - 前記(II)プロセスで、
前記プロセッサが、前記コンボリューションレイヤに対応する少なくとも一つのデコンボリューションレイヤの形態で具現された前記アウトプットレイヤをもって、前記特徴マップに対して前記アウトプット演算を適用させることによって、前記マルチチャンネル統合イメージに対応する予測セグメンテーションイメージを含む前記予測物体情報を生成させることを特徴とする請求項10に記載の装置。 - 前記プロセッサが、前記コンボリューションレイヤをもって、前記撮影イメージに関する情報とともに前記デプスイメージに関する情報も反映された前記特徴マップを生成させることによって、前記物体のうち前記物体描写率が閾値未満であるそれぞれの特定物体に関する情報が前記予測物体情報にさらに含まれ得るようにすることを特徴とする請求項10に記載の装置。
- 撮影状況が不適合であることにより、カメラを通じて取得される撮影イメージ(Photographed Image)上に少なくとも一つの物体が適合するように現れる確率である、前記撮影イメージの物体描写率(Object Depiction Ratio)が低くても、CNN(Convolutional Neural Network)が適合して作動するように前記カメラとレーダ(Radar)とを共に使用して前記CNNをテストするテスト装置において、
インストラクションを格納する少なくとも一つのメモリと、
(I)(1)学習装置が、(i)学習装置と連動して作動する学習用対象自動車上の学習用カメラを通じて取得された学習用撮影イメージ、及び(ii)前記学習用対象自動車の学習用レーダを通じて取得された学習用デプスイメージ(Depth Image)を使用して生成された学習用マルチチャンネル統合イメージ(Multichannel Integrated Image)が取得されると、前記CNN内の少なくとも一つのコンボリューションレイヤ(Convolutional Layer)をもって、前記学習用マルチチャンネル統合イメージに対してコンボリューション演算を少なくとも一回適用させて、前記学習用撮影イメージに関する情報と共に前記学習用デプスイメージに関する情報も反映された少なくとも一つの学習用特徴マップ(Feature Map)を生成させ、(2)前記学習装置が、前記CNN内の少なくとも一つのアウトプットレイヤ(Output Layer)をもって、前記学習用特徴マップに対してアウトプット演算を少なくとも一回適用させて、前記学習用マルチチャンネル統合イメージ内の前記学習用物体に関する学習用予測物体情報(Estimated Object Information)を生成させ、(3)前記学習装置が、前記CNN内の少なくとも一つのロスレイヤ(Loss Layer)をもって、前記学習用予測物体情報及びこれに対応する原本正解(Ground Truth)物体情報を使用して少なくとも一つのロスを生成させ、前記ロスを使用してバックプロパゲーションを遂行することによって、前記CNN内のパラメータのうち少なくとも一部を学習させた状態で、前記CNN内の前記コンボリューションレイヤをもって、(i)前記テスト装置と連動して作動するテスト用対象自動車上のテスト用カメラを通じて取得されたテスト用撮影イメージと、(ii)前記テスト用対象自動車のテスト用レーダを通じて取得されたテスト用デプスイメージとを使用して生成されたテスト用マルチチャンネル統合イメージに対して前記コンボリューション演算を少なくとも一回適用させて、前記テスト用撮影イメージに関する情報と共に前記テスト用デプスイメージに関する情報も反映された少なくとも一つのテスト用特徴マップを生成させるプロセス、及び(II)前記CNN内の前記アウトプットレイヤをもって、前記テスト用特徴マップに対して前記アウトプット演算を適用させて、前記テスト用マルチチャンネル統合イメージ内の前記テスト用物体に対するテスト用予測物体情報を生成させるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とし、
前記(I)プロセスで、
前記プロセッサが、(i)前記テスト用デプスイメージを参照して前記テスト用対象自動車からの前記テスト用物体の少なくとも一つのテスト用距離及び少なくとも一つのテスト用角度に関するテスト用情報を取得した後、(ii)前記テスト用距離及び前記テスト用角度に関する前記テスト用情報を参照して前記テスト用撮影イメージ上における前記テスト用物体のうち少なくとも一部に対応する少なくとも一つのテスト用物体座標を求め、(iii)前記テスト用物体座標とテスト用確率分布とを参照して生成された値をテスト用ガイドチャンネルイメージ(Guide Channel Image)に含まれている、それに対応するテスト用ピクセル値として設定して少なくとも一つの前記テスト用ガイドチャンネルイメージを生成した後、(iv)前記テスト用ガイドチャンネルイメージを前記テスト用撮影イメージとともにチャンネルごとに(Channel−wise)コンカチネート(Concatenating)することによって前記テスト用マルチチャンネル統合イメージを生成することを特徴とする装置。 - 前記(I)プロセスで、
前記プロセッサが、前記テスト用物体座標のうちテスト用第1物体座標ないしテスト用第N物体座標と前記テスト用確率分布とを参照して下記数式による演算を遂行することによって、前記テスト用ガイドチャンネルイメージに、それに対応するテスト用ピクセル値として含まれる前記値を算出し、
- 前記プロセッサが、前記コンボリューションレイヤをもって、前記テスト用撮影イメージに関する情報と共に前記テスト用デプスイメージに関する情報も反映された前記テスト用特徴マップを生成させることによって、前記テスト用物体のうち前記物体描写率が閾値未満であるそれぞれの特定のテスト用物体に関する情報が前記テスト用予測物体情報にさらに含まれ得るようにし、
(III)前記プロセッサが、前記テスト用予測物体情報を前記テスト用対象自動車上の少なくとも一つの自律走行モジュールに伝達することによって、前記テスト用対象自動車の自律走行を支援するプロセス;
をさらに遂行することを特徴とする請求項16に記載の装置。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962799216P | 2019-01-31 | 2019-01-31 | |
US62/799216 | 2019-01-31 | ||
US16/731,990 US10776673B2 (en) | 2019-01-31 | 2019-12-31 | Learning method and learning device for sensor fusion to integrate information acquired by radar capable of distance estimation and information acquired by camera to thereby improve neural network for supporting autonomous driving, and testing method and testing device using the same |
US16/731990 | 2019-12-31 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020126630A JP2020126630A (ja) | 2020-08-20 |
JP6908946B2 true JP6908946B2 (ja) | 2021-07-28 |
Family
ID=69187627
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020007739A Active JP6908946B2 (ja) | 2019-01-31 | 2020-01-21 | 距離予測が可能なレーダを通じて取得される情報とカメラを通じて取得される情報とを統合するセンサ融合を遂行することによって、自律走行を支援するニューラルネットワークを向上させる学習方法及び学習装置、そしてこれを使用したテスト方法及びテスト装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10776673B2 (ja) |
EP (1) | EP3690727B1 (ja) |
JP (1) | JP6908946B2 (ja) |
KR (1) | KR102373466B1 (ja) |
CN (1) | CN111507166B (ja) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018176000A1 (en) | 2017-03-23 | 2018-09-27 | DeepScale, Inc. | Data synthesis for autonomous control systems |
US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11215999B2 (en) | 2018-06-20 | 2022-01-04 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11361457B2 (en) | 2018-07-20 | 2022-06-14 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
US11205093B2 (en) | 2018-10-11 | 2021-12-21 | Tesla, Inc. | Systems and methods for training machine models with augmented data |
US11196678B2 (en) | 2018-10-25 | 2021-12-07 | Tesla, Inc. | QOS manager for system on a chip communications |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US10997461B2 (en) | 2019-02-01 | 2021-05-04 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11150664B2 (en) | 2019-02-01 | 2021-10-19 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US10956755B2 (en) | 2019-02-19 | 2021-03-23 | Tesla, Inc. | Estimating object properties using visual image data |
JP7446903B2 (ja) * | 2020-04-23 | 2024-03-11 | 株式会社日立製作所 | 画像処理装置、画像処理方法及び画像処理システム |
CN112116644B (zh) * | 2020-08-28 | 2023-05-23 | 辽宁石油化工大学 | 一种基于视觉的障碍物检测方法和装置、障碍物距离计算方法和装置 |
CN112241763A (zh) * | 2020-10-19 | 2021-01-19 | 中国科学技术大学 | 多源多模动态信息融合与认知方法及系统 |
JP7447042B2 (ja) | 2021-03-17 | 2024-03-11 | 株式会社東芝 | 画像処理装置、方法及びプログラム |
CN115128566A (zh) * | 2021-03-24 | 2022-09-30 | 索尼集团公司 | 雷达数据确定电路及雷达数据确定方法 |
DE102021002011A1 (de) | 2021-04-16 | 2021-08-12 | Daimler Ag | Verfahren zur Annotation von Daten einer Umgebungserfassung |
US12050660B2 (en) | 2021-05-05 | 2024-07-30 | Motional Ad Llc | End-to-end system training using fused images |
DE102023003086A1 (de) | 2022-09-15 | 2024-03-21 | Sew-Eurodrive Gmbh & Co Kg | Verfahren zum Trainieren eines neuronalen Netzes zur Detektion eines Objekts und Verfahren zur Detektion eines Objekts mittels eines neuronalen Netzes |
KR20240111131A (ko) | 2023-01-09 | 2024-07-16 | 전창복 | 자율주행자동차용 카메라 세정장치 |
CN115861938B (zh) * | 2023-02-06 | 2023-05-26 | 北京中超伟业信息安全技术股份有限公司 | 一种基于无人机识别的无人机反制方法及系统 |
CN116012376B (zh) * | 2023-03-23 | 2023-07-04 | 深圳佑驾创新科技有限公司 | 目标检测方法、装置以及车辆 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9007197B2 (en) * | 2002-05-20 | 2015-04-14 | Intelligent Technologies International, Inc. | Vehicular anticipatory sensor system |
JP5862785B2 (ja) * | 2012-09-03 | 2016-02-16 | トヨタ自動車株式会社 | 衝突判定装置及び衝突判定方法 |
US9940539B2 (en) * | 2015-05-08 | 2018-04-10 | Samsung Electronics Co., Ltd. | Object recognition apparatus and method |
US9972092B2 (en) * | 2016-03-31 | 2018-05-15 | Adobe Systems Incorporated | Utilizing deep learning for boundary-aware image segmentation |
US9947103B1 (en) * | 2017-10-03 | 2018-04-17 | StradVision, Inc. | Learning method and learning device for improving image segmentation and testing method and testing device using the same |
US11500099B2 (en) * | 2018-03-14 | 2022-11-15 | Uatc, Llc | Three-dimensional object detection |
US10671855B2 (en) * | 2018-04-10 | 2020-06-02 | Adobe Inc. | Video object segmentation by reference-guided mask propagation |
CN108764142A (zh) * | 2018-05-25 | 2018-11-06 | 北京工业大学 | 基于3dcnn的无人机影像森林烟雾检测和分类方法 |
CN108830188B (zh) * | 2018-05-30 | 2022-03-04 | 西安理工大学 | 基于深度学习的车辆检测方法 |
US11370423B2 (en) * | 2018-06-15 | 2022-06-28 | Uatc, Llc | Multi-task machine-learned models for object intention determination in autonomous driving |
KR102615196B1 (ko) * | 2018-08-21 | 2023-12-18 | 삼성전자주식회사 | 객체 검출 모델 트레이닝 장치 및 방법 |
CN108710875B (zh) * | 2018-09-11 | 2019-01-08 | 湖南鲲鹏智汇无人机技术有限公司 | 一种基于深度学习的航拍公路车辆计数方法及装置 |
US10300851B1 (en) * | 2018-10-04 | 2019-05-28 | StradVision, Inc. | Method for warning vehicle of risk of lane change and alarm device using the same |
US10311578B1 (en) * | 2019-01-23 | 2019-06-04 | StradVision, Inc. | Learning method and learning device for segmenting an image having one or more lanes by using embedding loss to support collaboration with HD maps required to satisfy level 4 of autonomous vehicles and softmax loss, and testing method and testing device using the same |
US10496899B1 (en) * | 2019-01-25 | 2019-12-03 | StradVision, Inc. | Learning method and learning device for adjusting parameters of CNN in which residual networks are provided for meta learning, and testing method and testing device using the same |
-
2019
- 2019-12-31 US US16/731,990 patent/US10776673B2/en active Active
-
2020
- 2020-01-13 KR KR1020200004522A patent/KR102373466B1/ko active IP Right Grant
- 2020-01-21 JP JP2020007739A patent/JP6908946B2/ja active Active
- 2020-01-22 EP EP20153075.5A patent/EP3690727B1/en active Active
- 2020-01-22 CN CN202010073576.6A patent/CN111507166B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
US20200250468A1 (en) | 2020-08-06 |
KR102373466B1 (ko) | 2022-03-14 |
JP2020126630A (ja) | 2020-08-20 |
EP3690727A1 (en) | 2020-08-05 |
US10776673B2 (en) | 2020-09-15 |
KR20200095367A (ko) | 2020-08-10 |
EP3690727B1 (en) | 2023-03-29 |
CN111507166B (zh) | 2023-08-29 |
CN111507166A (zh) | 2020-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6908946B2 (ja) | 距離予測が可能なレーダを通じて取得される情報とカメラを通じて取得される情報とを統合するセンサ融合を遂行することによって、自律走行を支援するニューラルネットワークを向上させる学習方法及び学習装置、そしてこれを使用したテスト方法及びテスト装置 | |
EP3690482A1 (en) | Learning method and learning device for integrating an image acquired by a camera and a point-cloud map acquired by radar or lidar in a neural network and testing method and testing device using the same | |
JP6853560B2 (ja) | 高精度イメージを分析するディープラーニングネットワークの学習に利用するためのトレーニングイメージをオートラベリングするための方法、及びこれを利用したオートラベリング装置{method for auto−labeling training images for use in deep learning network to analyze images with high precision, and auto−labeling device using the same} | |
JP6923960B2 (ja) | 自動駐車システムを提供するために決定地点間の関係及び決定地点に対するリグレッション結果を利用して駐車スペースを検出する学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 | |
JP6886202B2 (ja) | 仮想走行の環境で使用されるドメイン適応に適用され得るganを利用して、リアル特徴マップと同一または類似する特性を有するバーチャル特徴マップを生成する学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置 | |
KR102337376B1 (ko) | 레인 마스크(Lane Mask)를 사용하여 후처리 없이 입력 이미지에 포함된 하나 이상의 차선을 검출하는 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
JP6863619B2 (ja) | コンボリューションニューラルネットワークから複数の出力のアンサンブルを利用して統合された特徴マップを提供するための方法及び装置{method and device for providing integrated feature map using ensemble of multiple outputs from convolutional neural network} | |
JP6957050B2 (ja) | モバイルデバイスまたは小型ネットワークに適用可能なハードウェアを最適化するのに利用可能なroiをプーリングするために、マスキングパラメータを利用する方法及び装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for pooling roi by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same} | |
US10919543B2 (en) | Learning method and learning device for determining whether to switch mode of vehicle from manual driving mode to autonomous driving mode by performing trajectory-based behavior analysis on recent driving route | |
US10621476B1 (en) | Learning method and learning device for object detector based on reconfigurable network for optimizing customers' requirements such as key performance index using target object estimating network and target object merging network, and testing method and testing device using the same | |
US10410120B1 (en) | Learning method and testing method of object detector to be used for surveillance based on R-CNN capable of converting modes according to aspect ratios or scales of objects, and learning device and testing device using the same | |
CN111507159B (zh) | 提供自动驾驶安全性的方法和装置 | |
KR102320999B1 (ko) | 폴트 톨러런스 및 플럭츄에이션 로버스트를 위한 복수의 뉴럴 네트워크를 사용하여 흔들리는 카메라로 인해 생성된 비디오에서 지터링을 제거하기 위한 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
JP6846069B2 (ja) | 遠距離検出または軍事目的のために、イメージコンカチネーションを利用したcnn基盤のハードウェア最適化が可能な物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置{learning method and learning device for object detector with hardware optimization based on cnn for detection at distance or military purpose using image concatenation, and testing method and testing device using the same} | |
EP3686837B1 (en) | Learning method and learning device for reducing distortion occurred in warped image generated in process of stabilizing jittered image by using gan to enhance fault tolerance and fluctuation robustness in extreme situations | |
US10728461B1 (en) | Method for correcting misalignment of camera by selectively using information generated by itself and information generated by other entities and device using the same | |
CN111507161B (zh) | 利用合并网络进行异质传感器融合的方法和装置 | |
JP2020038669A (ja) | 複数のビデオフレームを利用してcnnのパラメータを最適化するための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
EP3686807A2 (en) | Learning method and learning device for object detector to be used for surveillance based on convolutional neural network capable of converting modes according to scales of objects, and testing method and testing device using the same | |
JP2020126635A (ja) | 周辺車両のイメージを利用してベース車両のイメージをオートラベリングするオートラベリング装置を学習させる学習方法及び学習装置、そして、これを利用したテスティング方法及びテスティング装置 | |
CN111507169B (zh) | 以avm实现注意力驱动资源分配的方法及装置 | |
EP3690718A1 (en) | Learning method and learning device for allowing cnn having trained in virtual world to be used in real world by runtime input transformation using photo style transformation, and testing method and testing device using the same | |
KR20220089602A (ko) | 무보정 광각 이미지 기반 가변 합성곱 신경망 학습 방법 및 장치 | |
US10373004B1 (en) | Method and device for detecting lane elements to plan the drive path of autonomous vehicle by using a horizontal filter mask, wherein the lane elements are unit regions including pixels of lanes in an input image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200121 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200706 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200710 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20201022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210507 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210614 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210625 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6908946 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |