JP2020038666A - 自律走行状況で障害物検出のための学習用データセットの生成方法及びこれを利用したコンピューティング装置、学習方法及び学習装置 - Google Patents
自律走行状況で障害物検出のための学習用データセットの生成方法及びこれを利用したコンピューティング装置、学習方法及び学習装置 Download PDFInfo
- Publication number
- JP2020038666A JP2020038666A JP2019160648A JP2019160648A JP2020038666A JP 2020038666 A JP2020038666 A JP 2020038666A JP 2019160648 A JP2019160648 A JP 2019160648A JP 2019160648 A JP2019160648 A JP 2019160648A JP 2020038666 A JP2020038666 A JP 2020038666A
- Authority
- JP
- Japan
- Prior art keywords
- image
- original
- segmentation
- learning
- correct
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 116
- 238000001514 detection method Methods 0.000 title description 4
- 230000011218 segmentation Effects 0.000 claims abstract description 299
- 230000008569 process Effects 0.000 claims description 78
- 238000013527 convolutional neural network Methods 0.000 claims description 31
- 238000004891 communication Methods 0.000 claims description 6
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 5
- 238000003709 image segmentation Methods 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 3
- 238000012549 training Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 241000270722 Crocodylidae Species 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- LNNWVNGFPYWNQE-GMIGKAJZSA-N desomorphine Chemical compound C1C2=CC=C(O)C3=C2[C@]24CCN(C)[C@H]1[C@@H]2CCC[C@@H]4O3 LNNWVNGFPYWNQE-GMIGKAJZSA-N 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 241000283690 Bos taurus Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241000282816 Giraffa camelopardalis Species 0.000 description 1
- 241000282376 Panthera tigris Species 0.000 description 1
- 241000009328 Perro Species 0.000 description 1
- 241000282458 Ursus sp. Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/14—Transformations for image registration, e.g. adjusting or mapping for alignment of images
- G06T3/147—Transformations for image registration, e.g. adjusting or mapping for alignment of images using affine transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Processing Or Creating Images (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
Abstract
Description
Claims (30)
- 自律走行状況で、少なくとも一つの障害物検出のための少なくとも一つの学習用データセットを生成する方法において、
(a)コンピューティング装置が、(i)道路走行状況を示す少なくとも一つの第1原本イメージ及び(ii)前記第1原本イメージに対応する少なくとも一つの第1セグメンテーション原本正解(ground truth)イメージを獲得する段階;
(b)前記コンピューティング装置が、(i)少なくとも一つの特定の物体に対するイメージを含む少なくとも一つの第2原本イメージ及び(ii)前記特定の物体に対するセグメンテーション情報を含み、前記第2原本イメージに対応する少なくとも一つの第2セグメンテーション原本正解イメージを獲得する段階;
(c)前記コンピューティング装置が、(i)前記第2原本イメージから前記特定の物体に対応する部分を切り取って生成された少なくとも一つの第3原本イメージ及び(ii)前記第2セグメンテーション原本正解イメージから前記特定の物体が位置する部分に対応する各ピクセルを切り取って生成された少なくとも一つの第3セグメンテーション原本正解イメージを獲得する段階;及び
(d)前記コンピューティング装置が、(i)前記第3原本イメージを前記第1原本イメージに合成して、少なくとも一つの学習用第4原本イメージを生成し、(ii)前記第3原本イメージが前記第1原本イメージに合成された少なくとも一つの特定位置に対応するように、前記第3セグメンテーション原本正解イメージを前記第1セグメンテーション原本正解イメージに合成して少なくとも一つの学習用第4セグメンテーション原本正解イメージを生成することにより、前記学習用第4原本イメージとそれに対応する前記学習用第4セグメンテーション原本正解イメージを含む前記学習用データセットを生成する段階;を含むことを特徴とする方法。 - 前記(d)段階は、
(d_1)前記コンピューティング装置が、前記第3原本イメージ及び前記第3セグメンテーション原本正解イメージを互いに同一の方法で変形して各々変形された第3原本イメージ及び変形された第3セグメンテーション原本正解イメージを生成する段階;及び
(d_2)前記コンピューティング装置が、前記変形された第3原本イメージ及び前記変形された第3セグメンテーション原本正解イメージを各々前記第1原本イメージ及び前記第1セグメンテーション原本正解イメージに合成する段階;
を含むことを特徴とする請求項1に記載の方法。 - 前記(d_1)段階で、
前記コンピューティング装置は、アフィン変換(affine transform)アルゴリズム及び薄板スプライン補間(thin−plate spline interpolation)アルゴリズムのうち少なくとも一つのアルゴリズムを利用して、前記第3原本イメージ及び前記第3セグメンテーション原本正解イメージを変形することを特徴とする請求項2に記載の方法。 - 前記コンピューティング装置は、前記(d_1)段階で適用されるアルゴリズム及びその細部パラメータのうち少なくとも一部を変化させながら、前記(d_1)段階及び前記(d_2)段階を繰り返し遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項2に記載の方法。
- 前記第1原本イメージ及び前記第1セグメンテーション原本正解イメージは様々な道路走行イメージデータベース及びこれに対応するセグメンテーション原本正解イメージデータベースから各々選択され、
前記第2原本イメージ及び前記第2セグメンテーション原本正解イメージは、様々な物体の種類別原本イメージデータベース及びこれに対応するセマンティック(semantic)セグメンテーション原本正解イメージデータベースから各々選択されることを特徴とする請求項1に記載の方法。 - 前記(c)段階で、
前記コンピューティング装置は、前記第2セグメンテーション原本正解イメージのセマンティックセグメンテーション情報を利用して、前記特定の物体を前記第2原本イメージ及び前記第2セグメンテーション原本正解イメージから切り取ることを特徴とする請求項5に記載の方法。 - 前記(c)段階で、
前記コンピューティング装置は、(i)前記第2セグメンテーション原本正解イメージ内の前記特定の物体に対するセマンティックセグメンテーション情報を有する領域を切り取って前記第3セグメンテーション原本正解イメージを獲得し、(ii)前記第2セグメンテーション原本正解イメージ内の前記第3セグメンテーション原本正解イメージ部分のピクセル情報に対応される前記第2原本イメージ内のピクセルの位置を参照にして前記第3原本イメージを獲得することを特徴とする請求項6に記載の方法。 - 前記(d)段階で、
前記コンピューティング装置は、(i)前記第1原本イメージ内で道路に対応する部分を判断した後、前記第3原本イメージを前記第1原本イメージから前記道路に対応する部分内の任意の位置に合成し、前記学習用第4原本イメージを生成し、(ii)前記第1原本イメージでの前記任意の位置に対応するように前記第1セグメンテーション原本正解イメージに前記第3セグメンテーション原本正解イメージを合成することで、前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項1に記載の方法。 - 前記(d)段階で、
前記コンピューティング装置は、前記任意の位置を変えながら前記学習用第4原本イメージ及び前記学習用第4セグメンテーション原本正解イメージを生成する過程を複数回遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項8に記載の方法。 - 前記第1セグメンテーション原本正解イメージは、前記道路に対するセグメンテーション情報を含むことを特徴とする請求項1に記載の方法。
- CNN(Convolutional Neural Network)による学習方法において、
(a)(I)コンピューティング装置が(i)道路走行状況を示す、少なくとも一つの第1原本イメージ及び(ii)前記第1原本イメージに対応する少なくとも一つの第1セグメンテーション原本正解イメージを獲得するプロセス;(II)前記コンピューティング装置が(i)少なくとも一つの特定の物体に対するイメージを含む少なくとも一つの第2原本イメージ及び(ii)前記特定の物体に対するセグメンテーション情報を含んで前記第2原本イメージに対応する少なくとも一つの第2セグメンテーション原本正解イメージを獲得するプロセス;(III)前記コンピューティング装置が、(i)前記第2原本イメージから前記特定の物体に対応する部分を切り取って生成された少なくとも一つの第3原本イメージ及び(ii)前記第2セグメンテーション原本正解イメージから前記特定の物体が位置する部分に対応する各ピクセルを切り取って生成された少なくとも一つの第3セグメンテーション原本正解イメージを獲得するプロセス;及び(IV)前記コンピューティング装置が(i)前記第3原本イメージを前記第1原本イメージに合成して、少なくとも一つの学習用第4原本イメージを生成し、(ii)前記第3原本イメージが前記第1原本イメージに合成された少なくとも一つの特定位置に対応するように、前記第3セグメンテーション原本正解イメージを前記第1セグメンテーション原本正解イメージに合成して少なくとも一つの学習用第4セグメンテーション原本正解イメージを生成することにより、前記学習用第4原本イメージとそれに対応する前記学習用第4セグメンテーション原本正解イメージを含む学習用データセットを生成するプロセスを遂行した状態で、学習装置が、前記学習用第4原本イメージを、自律走行状況で少なくとも一つの障害物検出のための少なくとも一つの学習用イメージとして入力を受ける段階;及び
(b)前記学習装置が、前記学習用第4原本イメージに対して、前記CNNの複数の演算を適用して出力イメージを獲得して、前記出力イメージと前記第4セグメンテーション原本正解イメージを比較した後、バックプロパゲーション(backpropagation)によって前記学習装置のパラメータを調整する段階;
を含むことを特徴とする学習方法。 - 前記(IV)プロセスで、
(IV_1)前記コンピューティング装置が、前記第3原本イメージ及び前記第3セグメンテーション原本正解イメージを互いに同一の方法で変形して各々変形された第3原本イメージ及び変形された第3セグメンテーション原本正解イメージを生成し;(IV_2)前記コンピューティング装置が、前記変形された第3原本イメージ及び前記変形された第3セグメンテーション原本正解イメージを各々前記第1原本イメージ及び前記第1セグメンテーション原本正解イメージに合成することを特徴とする請求項11に記載の学習方法。 - 前記コンピューティング装置は、前記(IV_1)プロセスで適用されるアルゴリズム及びその細部パラメータのうち少なくとも一部を変化させながら、前記(IV_1)プロセス及び前記(IV_2)プロセスを繰り返し遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項12に記載の学習方法。
- 前記(IV)プロセスで、
前記コンピューティング装置は、(i)前記第1原本イメージ内で道路に対応する部分を判断した後、前記第3原本イメージを前記第1原本イメージから前記道路に対応する部分内の任意の位置に合成し、前記学習用第4原本イメージを生成し、(ii)前記第1原本イメージでの前記任意の位置に対応するように前記第1セグメンテーション原本正解イメージに前記第3セグメンテーション原本正解イメージを合成することで、前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項11に記載の学習方法。 - 前記(IV)プロセスで、
前記コンピューティング装置は、前記任意の位置を変えながら前記学習用第4原本イメージ及び前記学習用第4セグメンテーション原本正解イメージを生成する過程を複数回遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項14に記載の学習方法。 - 自律走行状況で、少なくとも一つの障害物検出のための少なくとも一つの学習用データセットを生成するコンピューティング装置において、
(i−1)道路走行状況を示す少なくとも一つの第1原本イメージ及び(i−2)前記第1原本イメージに対応する少なくとも一つの第1セグメンテーション原本正解イメージを獲得し、(ii−1)少なくとも一つの特定の物体に対するイメージを含む少なくとも一つの第2原本イメージ及び(ii−2)前記特定の物体に対するセグメンテーション情報を含み、前記第2原本イメージに対応する少なくとも一つの第2セグメンテーション原本正解イメージを獲得するための通信部;及び
(I)(i)前記第2原本イメージから前記特定の物体に対応する部分を切り取って生成された少なくとも一つの第3原本イメージ及び(ii)前記第2セグメンテーション原本正解イメージから前記特定の物体が位置する部分に対応する各ピクセルを切り取って生成された少なくとも一つの第3セグメンテーション原本正解イメージを獲得するプロセス;及び(II)(i)前記第3原本イメージを前記第1原本イメージに合成して、少なくとも一つの学習用第4原本イメージを生成し、(ii)前記第3原本イメージが前記第1原本イメージに合成された少なくとも一つの特定位置に対応するように、前記第3セグメンテーション原本正解イメージを前記第1セグメンテーション原本正解イメージに合成して少なくとも一つの学習用第4セグメンテーション原本正解イメージを生成することにより、前記学習用第4原本イメージとそれに対応する前記学習用第4セグメンテーション原本正解イメージを含む前記学習用データセットを生成するプロセスを遂行するプロセッサ;
を含むことを特徴とするコンピューティング装置。 - 前記(II)プロセスで、
(II_1)前記プロセッサが、前記第3原本イメージ及び前記第3セグメンテーション原本正解イメージを互いに同一の方法で変形して各々変形された第3原本イメージ及び変形された第3セグメンテーション原本正解イメージを生成するプロセス;及び(II_2)前記プロセッサが、前記変形された第3原本イメージ及び前記変形された第3セグメンテーション原本正解イメージを各々前記第1原本イメージ及び前記第1セグメンテーション原本正解イメージに合成するプロセス;を遂行することを特徴とする請求項16に記載のコンピューティング装置。 - 前記(II_1)プロセスで、
前記プロセッサは、アフィン変換アルゴリズム及び薄板スプライン補間アルゴリズムのうち少なくとも一つのアルゴリズムを利用して、前記第3原本イメージ及び前記第3セグメンテーション原本正解イメージを変形することを特徴とする請求項17に記載のコンピューティング装置。 - 前記プロセッサは、前記(II_1)プロセスで適用されるアルゴリズム及びその細部パラメータのうち少なくとも一部を変化させながら、前記(II_1)プロセス及び前記(II_2)プロセスを繰り返し遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項17に記載のコンピューティング装置。
- 前記第1原本イメージ及び前記第1セグメンテーション原本正解イメージは様々な道路走行イメージデータベース及びこれに対応するセグメンテーション原本正解イメージデータベースから各々選択され、
前記第2原本イメージ及び前記第2セグメンテーション原本正解イメージは、様々な物体の種類別原本イメージデータベース及びこれに対応するセマンティックセグメンテーション原本正解イメージデータベースから各々選択されることを特徴とする請求項16に記載のコンピューティング装置。 - 前記(I)プロセスで、
前記プロセッサは、前記第2セグメンテーション原本正解イメージのセマンティックセグメンテーション情報を利用して、前記特定の物体を前記第2原本イメージ及び前記第2セグメンテーション原本正解イメージから切り取ることを特徴とする請求項20に記載のコンピューティング装置。 - 前記(I)プロセスで、
前記プロセッサは、(i)前記第2セグメンテーション原本正解イメージ内の前記特定の物体に対するセマンティックセグメンテーション情報を有する領域を切り取って前記第3セグメンテーション原本正解イメージを獲得し、(ii)前記第2セグメンテーション原本正解イメージ内の前記第3セグメンテーション原本正解イメージ部分のピクセル情報に対応される前記第2原本イメージ内のピクセルの位置を参照にして前記第3原本イメージを獲得することを特徴とする請求項21に記載のコンピューティング装置。 - 前記(II)プロセスで、
前記プロセッサは、(i)前記第1原本イメージ内で道路に対応する部分を判断した後、前記第3原本イメージを前記第1原本イメージから前記道路に対応する部分内の任意の位置に合成し、前記学習用第4原本イメージを生成し、(ii)前記第1原本イメージでの前記任意の位置に対応するように前記第1セグメンテーション原本正解イメージに前記第3セグメンテーション原本正解イメージを合成することで、前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項16に記載のコンピューティング装置。 - 前記(II)プロセスで、
前記プロセッサは、前記任意の位置を変えながら前記学習用第4原本イメージ及び前記学習用第4セグメンテーション原本正解イメージを生成する過程を複数回遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項20に記載のコンピューティング装置。 - 前記第1セグメンテーション原本正解イメージは、前記道路に対するセグメンテーション情報を含むことを特徴とする請求項16に記載のコンピューティング装置。
- CNN(Convolutional Neural Network)による学習を遂行するための学習装置において、
(I)コンピューティング装置が(i)道路走行状況を示す、少なくとも一つの第1原本イメージ及び(ii)前記第1原本イメージに対応する少なくとも一つの第1セグメンテーション原本正解イメージを獲得するプロセス、(II)前記コンピューティング装置が(i)少なくとも一つの特定の物体に対するイメージを含む少なくとも一つの第2原本イメージ及び(ii)前記特定の物体に対するセグメンテーション情報を含み前記第2原本イメージに対応する少なくとも一つの第2セグメンテーション原本正解イメージを獲得するプロセス、(III)前記コンピューティング装置が、(i)前記第2原本イメージから前記特定の物体に対応する部分を切り取って生成された少なくとも一つの第3原本イメージ及び(ii)前記第2セグメンテーション原本正解イメージから前記特定の物体が位置する部分に対応する各ピクセルを切り取って生成された少なくとも一つの第3セグメンテーション原本正解イメージを獲得するプロセス、及び(IV)前記コンピューティング装置が(i)前記第3原本イメージを前記第1原本イメージに合成して、少なくとも一つの学習用第4原本イメージを生成し、(ii)前記第3原本イメージが前記第1原本イメージに合成された少なくとも一つの特定位置に対応するように、前記第3セグメンテーション原本正解イメージを前記第1セグメンテーション原本正解イメージに合成して少なくとも一つの学習用第4セグメンテーション原本正解イメージを生成することにより、前記学習用第4原本イメージとそれに対応する前記学習用第4セグメンテーション原本正解イメージを含む学習用データセットを生成するプロセスを遂行した状態で、前記学習用第4原本イメージを、自律走行状況で少なくとも一つの障害物検出のための少なくとも一つの学習用イメージとして入力を受ける通信部;及び
前記学習用第4原本イメージに対して、前記CNNの複数の演算を適用して出力イメージを獲得し、前記出力イメージと前記第4セグメンテーション原本正解イメージを比較した後、バックプロパゲーション(backpropagation)によって前記学習装置のパラメータを調整するプロセッサ;
を含むことを特徴とする学習装置。 - 前記コンピューティング装置によって遂行される前記(IV)プロセスで、
(IV_1)前記コンピューティング装置が、前記第3原本イメージ及び前記第3セグメンテーション原本正解イメージを互いに同一の方法で変形して各々変形された第3原本イメージ及び変形された第3セグメンテーション原本正解イメージを生成し;(IV_2)前記コンピューティング装置が、前記変形された第3原本イメージ及び前記変形された第3セグメンテーション原本正解イメージを各々前記第1原本イメージ及び前記第1セグメンテーション原本正解イメージに合成することを特徴とする請求項26に記載の学習装置。 - 前記コンピューティング装置は、前記(IV_1)プロセスで適用されるアルゴリズム及びその細部パラメータのうち少なくとも一部を変化させながら、前記(IV_1)プロセス及び前記(IV_2)プロセスを繰り返し遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項27に記載の学習装置。
- 前記コンピューティング装置によって遂行される前記(IV)プロセスで、
前記コンピューティング装置は、(i)前記第1原本イメージ内で道路に対応する部分を判断した後、前記第3原本イメージを前記第1原本イメージから前記道路に対応する部分内の任意の位置に合成し、前記学習用第4原本イメージを生成し、(ii)前記第1原本イメージでの前記任意の位置に対応するように前記第1セグメンテーション原本正解イメージに前記第3セグメンテーション原本正解イメージを合成することで、前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項26に記載の学習装置。 - 前記コンピューティング装置によって遂行される前記(IV)プロセスで、
前記コンピューティング装置は、前記任意の位置を変えながら前記学習用第4原本イメージ及び前記学習用第4セグメンテーション原本正解イメージを生成する過程を複数回遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項29に記載の学習装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/120,623 | 2018-09-04 | ||
US16/120,623 US10565476B1 (en) | 2018-09-04 | 2018-09-04 | Method and computing device for generating image data set for learning to be used for detection of obstruction in autonomous driving circumstances and learning method and learning device using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020038666A true JP2020038666A (ja) | 2020-03-12 |
JP6793411B2 JP6793411B2 (ja) | 2020-12-02 |
Family
ID=66589180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019160648A Active JP6793411B2 (ja) | 2018-09-04 | 2019-09-03 | 自律走行状況で障害物検出のための学習用データセットの生成方法及びこれを利用したコンピューティング装置、学習方法及び学習装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10565476B1 (ja) |
EP (1) | EP3620954A1 (ja) |
JP (1) | JP6793411B2 (ja) |
KR (1) | KR102286755B1 (ja) |
CN (1) | CN110874566B (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10762393B2 (en) * | 2019-01-31 | 2020-09-01 | StradVision, Inc. | Learning method and learning device for learning automatic labeling device capable of auto-labeling image of base vehicle using images of nearby vehicles, and testing method and testing device using the same |
CN113225613B (zh) * | 2020-01-21 | 2022-07-08 | 北京达佳互联信息技术有限公司 | 图像识别、视频直播方法和装置 |
EP3965052B1 (en) * | 2020-09-04 | 2023-08-16 | Robert Bosch GmbH | Device and method of training a generative neural network |
KR102345799B1 (ko) * | 2021-02-23 | 2021-12-31 | 인그래디언트 주식회사 | Cnn 기반의 자동 라벨 마스크 교정 방법 및 이를 이용한 시스템 |
CN113269130B (zh) * | 2021-06-11 | 2024-08-06 | 国电瑞源(西安)智能研究院有限公司 | 一种基于人工神经网络的视觉路径搜寻方法 |
KR102354681B1 (ko) * | 2021-11-08 | 2022-01-24 | 주식회사 테스트웍스 | 신경망 모델 기반의 이미지 증강 방법, 서버 및 컴퓨터 프로그램 |
US20230386163A1 (en) * | 2022-05-28 | 2023-11-30 | Orbital Insight, Inc. | Object Level Data Augmentation Scheme for Training Object Detectors |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05303645A (ja) * | 1992-04-28 | 1993-11-16 | Toshiba Corp | 画像認識装置 |
JP2018060511A (ja) * | 2016-10-06 | 2018-04-12 | 株式会社アドバンスド・データ・コントロールズ | シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7720282B2 (en) * | 2005-08-02 | 2010-05-18 | Microsoft Corporation | Stereo image segmentation |
US20130063487A1 (en) * | 2011-09-12 | 2013-03-14 | MyChic Systems Ltd. | Method and system of using augmented reality for applications |
WO2015134996A1 (en) * | 2014-03-07 | 2015-09-11 | Pelican Imaging Corporation | System and methods for depth regularization and semiautomatic interactive matting using rgb-d images |
US9141883B1 (en) * | 2015-05-11 | 2015-09-22 | StradVision, Inc. | Method, hard negative proposer, and classifier for supporting to collect hard negative images using a similarity map |
US10007863B1 (en) * | 2015-06-05 | 2018-06-26 | Gracenote, Inc. | Logo recognition in images and videos |
US9767381B2 (en) * | 2015-09-22 | 2017-09-19 | Xerox Corporation | Similarity-based detection of prominent objects using deep CNN pooling layers as features |
US9773196B2 (en) * | 2016-01-25 | 2017-09-26 | Adobe Systems Incorporated | Utilizing deep learning for automatic digital image segmentation and stylization |
US10019652B2 (en) * | 2016-02-23 | 2018-07-10 | Xerox Corporation | Generating a virtual world to assess real-world video analysis performance |
US11144889B2 (en) * | 2016-04-06 | 2021-10-12 | American International Group, Inc. | Automatic assessment of damage and repair costs in vehicles |
US20170337682A1 (en) * | 2016-05-18 | 2017-11-23 | Siemens Healthcare Gmbh | Method and System for Image Registration Using an Intelligent Artificial Agent |
WO2018015414A1 (en) * | 2016-07-21 | 2018-01-25 | Siemens Healthcare Gmbh | Method and system for artificial intelligence based medical image segmentation |
US10019655B2 (en) * | 2016-08-31 | 2018-07-10 | Adobe Systems Incorporated | Deep-learning network architecture for object detection |
US9947103B1 (en) * | 2017-10-03 | 2018-04-17 | StradVision, Inc. | Learning method and learning device for improving image segmentation and testing method and testing device using the same |
US10095977B1 (en) * | 2017-10-04 | 2018-10-09 | StradVision, Inc. | Learning method and learning device for improving image segmentation and testing method and testing device using the same |
US10007865B1 (en) * | 2017-10-16 | 2018-06-26 | StradVision, Inc. | Learning method and learning device for adjusting parameters of CNN by using multi-scale feature maps and testing method and testing device using the same |
US11080886B2 (en) * | 2017-11-15 | 2021-08-03 | Qualcomm Incorporated | Learning disentangled invariant representations for one shot instance recognition |
US10535138B2 (en) * | 2017-11-21 | 2020-01-14 | Zoox, Inc. | Sensor data segmentation |
-
2018
- 2018-09-04 US US16/120,623 patent/US10565476B1/en active Active
-
2019
- 2019-04-25 EP EP19171092.0A patent/EP3620954A1/en active Pending
- 2019-08-27 KR KR1020190105465A patent/KR102286755B1/ko active IP Right Grant
- 2019-08-29 CN CN201910809691.2A patent/CN110874566B/zh active Active
- 2019-09-03 JP JP2019160648A patent/JP6793411B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05303645A (ja) * | 1992-04-28 | 1993-11-16 | Toshiba Corp | 画像認識装置 |
JP2018060511A (ja) * | 2016-10-06 | 2018-04-12 | 株式会社アドバンスド・データ・コントロールズ | シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6793411B2 (ja) | 2020-12-02 |
CN110874566B (zh) | 2023-07-25 |
KR102286755B1 (ko) | 2021-08-09 |
KR20200027425A (ko) | 2020-03-12 |
US10565476B1 (en) | 2020-02-18 |
EP3620954A1 (en) | 2020-03-11 |
CN110874566A (zh) | 2020-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020038666A (ja) | 自律走行状況で障害物検出のための学習用データセットの生成方法及びこれを利用したコンピューティング装置、学習方法及び学習装置 | |
KR102313133B1 (ko) | 컨벌루션 뉴럴 네트워크로부터 복수의 출력들의 앙상블을 이용하여 통합된 특징 맵을 제공하기 위한 방법 및 장치 | |
US10540572B1 (en) | Method for auto-labeling training images for use in deep learning network to analyze images with high precision, and auto-labeling device using the same | |
KR102279350B1 (ko) | 자율 주행 상황에서 장애물 검출을 위한 cnn 학습용 이미지 데이터 세트의 생성 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR102144381B1 (ko) | 이미지 세그멘테이션을 위한 학습 방법 및 학습 장치, 그리고 이를 이용한 이미지 세그멘테이션 방법 및 이미지 세그멘테이션 장치 | |
US10325352B1 (en) | Method and device for transforming CNN layers to optimize CNN parameter quantization to be used for mobile devices or compact networks with high precision via hardware optimization | |
JP2020038662A (ja) | 車線候補ピクセルを分類して車線を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane through classifying lane candidate pixels and test method, test device using the same} | |
EP3687152B1 (en) | Learning method and learning device for pooling roi by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same | |
US10325371B1 (en) | Method and device for segmenting image to be used for surveillance using weighted convolution filters for respective grid cells by converting modes according to classes of areas to satisfy level 4 of autonomous vehicle, and testing method and testing device using the same | |
CN111968123B (zh) | 一种半监督视频目标分割方法 | |
KR102314524B1 (ko) | 자율 주행 상황에서 장애물 검출을 위한 cnn 학습용 이미지 데이터 세트의 생성 방법 및 컴퓨팅 장치 | |
CN111507161B (zh) | 利用合并网络进行异质传感器融合的方法和装置 | |
EP3686794A1 (en) | Learning method and learning device for cnn using 1xk or kx1 convolution to be used for hardware optimization, and testing method and testing device using the same | |
EP3686783A1 (en) | Method and device of neural network operations using a grid generator for converting modes according to classes of areas to satisfy level 4 of autonomous vehicles | |
US10325185B1 (en) | Method and device for online batch normalization, on-device learning, and continual learning applicable to mobile devices or IOT devices additionally referring to one or more previous batches to be used for military purpose, drone or robot, and testing method and testing device using the same | |
US10402686B1 (en) | Learning method and learning device for object detector to be used for surveillance based on convolutional neural network capable of converting modes according to scales of objects, and testing method and testing device using the same | |
EP3686809B1 (en) | Method and device for transforming cnn layers to optimize cnn parameter quantization to be used for mobile devices or compact networks with high precision via hardware optimization | |
EP3686784B1 (en) | Method and device of neural network operations using a grid generator for converting modes according to classes of areas to satisfy level 4 of autonomous vehicles | |
US10373004B1 (en) | Method and device for detecting lane elements to plan the drive path of autonomous vehicle by using a horizontal filter mask, wherein the lane elements are unit regions including pixels of lanes in an input image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190903 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201006 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201020 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6793411 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |