JP6850037B2 - 自律走行状況で、障害物検出のためのcnn学習用イメージデータセットの生成方法及びコンピューティング装置 - Google Patents
自律走行状況で、障害物検出のためのcnn学習用イメージデータセットの生成方法及びコンピューティング装置 Download PDFInfo
- Publication number
- JP6850037B2 JP6850037B2 JP2019160650A JP2019160650A JP6850037B2 JP 6850037 B2 JP6850037 B2 JP 6850037B2 JP 2019160650 A JP2019160650 A JP 2019160650A JP 2019160650 A JP2019160650 A JP 2019160650A JP 6850037 B2 JP6850037 B2 JP 6850037B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- label
- composite
- bounding box
- computing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 45
- 238000001514 detection method Methods 0.000 title claims description 12
- 239000002131 composite material Substances 0.000 claims description 175
- 238000004891 communication Methods 0.000 claims description 8
- 238000003709 image segmentation Methods 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 description 43
- 241000282994 Cervidae Species 0.000 description 8
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 8
- 238000012804 iterative process Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 241000283690 Bos taurus Species 0.000 description 1
- 241000270722 Crocodylidae Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- LNNWVNGFPYWNQE-GMIGKAJZSA-N desomorphine Chemical compound C1C2=CC=C(O)C3=C2[C@]24CCN(C)[C@H]1[C@@H]2CCC[C@@H]4O3 LNNWVNGFPYWNQE-GMIGKAJZSA-N 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/50—Barriers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Automation & Control Theory (AREA)
- Biodiversity & Conservation Biology (AREA)
- Aviation & Aerospace Engineering (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Description
Claims (14)
- 自律走行状況で、少なくとも一つの障害物検出のためのCNN学習のための少なくとも一つのイメージデータセットを生成する方法において、
(a)コンピューティング装置が、(i)道路走行状況を示す原本イメージ及び(ii)前記原本イメージに対応する原本ラベル及び前記原本イメージに対応されない任意の特定の物体のイメージに対応されるバウンディングボックスを利用して生成された初期合成ラベルを獲得する段階:及び
(b)前記コンピューティング装置が、CNNモジュールをもって前記原本イメージ及び前記初期合成ラベルを利用して第1合成イメージ及び第1合成ラベルを生成するようにする段階;を含むものの、
前記第1合成ラベルは、前記特定の物体のイメージに対応される前記バウンディングボックスの前記初期合成ラベル内の位置に対応するように前記特定の物体のイメージに対応される特定ラベルを前記原本ラベルに追加することにより生成され、前記第1合成イメージは、前記特定の物体のイメージに対応される前記バウンディングボックスの前記初期合成ラベル内の位置に対応するように、前記特定の物体の特定イメージが前記原本イメージに合成されたイメージであることを特徴とする方法。 - 前記(a)段階で、
前記コンピューティング装置が、(iii)ランダムシード値を追加的に獲得し、
前記(b)段階で、
前記コンピューティング装置が、前記CNNモジュールをもって前記原本イメージ、前記初期合成ラベル及び前記ランダムシード値を用いて調整された第1合成イメージを複数生成するものの、前記調整された第1合成イメージは、前記ランダムシード値を変化させながら前記第1合成イメージに含まれた前記特定の物体のサイズ、位置、カラーのうち、少なくとも一部を調整して生成されるイメージであることを特徴とする請求項1に記載の方法。 - 前記(a)段階で、
前記コンピューティング装置が、(iii)ランダムシード値を追加的に獲得し、
(c)コンピューティング装置は、前記CNNモジュールをもって前記第1合成ラベル、前記第1合成イメージ、及び前記ランダムシード値を前記CNNモジュールの入力として受けるようにし、繰り返し(i)一つ以上の中間合成ラベル及び一つ以上の中間合成イメージを生成して(ii)前記生成された中間合成ラベル及び前記生成された中間合成イメージを前記CNNモジュールの前記入力として受けるようにする段階;
をさらに含み、
前記(c)段階で、
繰り返し前記中間合成ラベル及び前記中間合成イメージを生成することにより、前記初期合成ラベル内前記バウンディングボックスの位置と同一または類似するように、前記特定の物体に対応する前記特定ラベル及び前記特定イメージを各々前記中間合成ラベル及び前記中間合成イメージ内に繰り返し合成して、第2合成ラベル及び第2合成イメージを生成することを特徴とする請求項1に記載の方法。 - 前記特定の物体に対応して、前記バウンディングボックスを選択するように提供されるバウンディングボックス候補群の形が所定の確率分布に従うとした場合、前記バウンディングボックスの形は、前記確率分布によって決定されることを特徴とする請求項1に記載の方法。
- 前記特定の物体に対応する前記バウンディングボックスの候補群の横の長さと縦の長さが各々第1確率分布と第2確率分布に従うとした場合、前記バウンディングボックスの形は、横の長さと縦の長さが各々前記第1確率分布と、前記第2確率分布によって決められることで決定されることを特徴とする請求項4に記載の方法。
- 前記特定の物体に対応する前記バウンディングボックス候補群の位置が、様々なイメージ内の前記特定の物体と類似した種類と大きさを有した様々な物体の位置情報を参照して獲得された所定の確率分布に従うとすれば、前記特定の物体に対応される前記バウンディングボックスの位置は、前記確率分布によって決定されることを特徴とする請求項1に記載の方法。
- (d)前記コンピューティング装置は、前記第1合成イメージと、前記第1合成ラベルを、物体検出及びイメージセグメンテーション(segmentation)のうち、少なくとも一部のための学習用データセットを含むデータベースに追加する段階;
をさらに含む請求項1に記載の方法。 - 自律走行状況で、少なくとも一つの障害物検出のためのCNN学習のための少なくとも一つのデータセットを生成するコンピューティング装置において、
(i)道路走行状況を示す原本イメージ及び(ii)前記原本イメージに対応する原本ラベル及び前記原本イメージに対応されない任意の特定の物体のイメージに対応されるバウンディングボックスを利用して生成された初期合成ラベルを通信部:及び
(I)CNNモジュールをもって前記原本イメージ及び前記初期合成ラベルを利用して第1合成イメージ及び第1合成ラベルを生成するようにするプロセスを遂行するプロセッサ;を含むものの、
前記第1合成ラベルは、前記特定の物体のイメージに対応される前記バウンディングボックスの前記初期合成ラベル内の位置に対応するように前記特定の物体のイメージに対応される特定ラベルを前記原本ラベルに追加することにより生成され、前記第1合成イメージは、前記特定の物体のイメージに対応される前記バウンディングボックスの前記初期合成ラベル内の位置に対応するように、前記特定の物体の特定イメージが前記原本イメージに合成されたイメージであることを特徴とするコンピューティング装置。 - 前記通信部が、(iii)ランダムシード値を追加的に獲得して、
前記(I)プロセスで、
前記プロセッサが、前記CNNモジュールをもって前記原本イメージ、前記初期合成ラベル及び前記ランダムシード値を用いて調整された第1合成イメージを複数生成するものの、前記調整された第1合成イメージは、前記ランダムシード値を変化させながら、前記第1合成イメージに含まれた前記特定の物体のサイズ、位置、カラーのうち、少なくとも一部を調整して生成されるイメージであることを特徴とする請求項8に記載のコンピューティング装置。 - 前記通信部が、(iii)ランダムシード値を追加的に獲得し、
前記プロセッサは、(II)前記CNNモジュールをもって前記第1合成ラベル、前記第1合成イメージ及び、前記ランダムシード値を前記CNNモジュールの入力として受けるようにし、繰り返し(i)一つ以上の中間合成ラベル及び一つ以上の中間合成イメージを生成して(ii)前記生成された中間合成ラベル及び前記生成された中間合成イメージを前記CNNモジュールの前記入力として受けるプロセス;をさらに遂行して、
前記(II)プロセスで、
繰り返し前記中間合成ラベル及び前記中間合成イメージを生成することにより、前記初期合成ラベル内前記バウンディングボックスの位置と同一または類似するように、前記特定の物体に対応する前記特定ラベル及び前記特定イメージを各々前記中間合成ラベル及び前記中間合成イメージ内に繰り返し合成して、第2合成ラベル及び第2合成イメージを生成することを特徴とする請求項8に記載のコンピューティング装置。 - 前記特定の物体に対応して、前記バウンディングボックスを選択するように提供されるバウンディングボックス候補群の形が所定の確率分布に従うとした場合、前記バウンディングボックスの形は、前記確率分布によって決定されることを特徴とする請求項8に記載のコンピューティング装置。
- 前記特定の物体に対応する前記バウンディングボックスの候補群の横の長さと縦の長さが各々第1確率分布と第2確率分布に従うとした場合、前記バウンディングボックスの形は、横の長さと特定の縦の長さが各々前記第1確率分布と、前記第2確率分布によって決められることで決定されることを特徴とする請求項11に記載のコンピューティング装置。
- 前記特定の物体に対応する前記バウンディングボックス候補群の位置が、様々なイメージ内の前記特定の物体と類似した種類と大きさを有した様々な物体の位置情報を参照して獲得された所定の確率分布に従うとすれば、前記特定の物体に対応される前記バウンディングボックスの位置は、前記確率分布によって決定されることを特徴とする請求項8に記載のコンピューティング装置。
- 前記プロセッサは、(III)前記第1合成イメージと、前記第1合成ラベルを、物体検出及びイメージセグメンテーションのうち、少なくとも一部のための学習用データセットを含むデータベースに追加するプロセス;をさらに遂行することを特徴とする請求項8に記載のコンピューティング装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/121,659 | 2018-09-05 | ||
US16/121,659 US10467503B1 (en) | 2018-09-05 | 2018-09-05 | Method and device for generating image data set to be used for learning CNN capable of detecting obstruction in autonomous driving circumstance |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020038668A JP2020038668A (ja) | 2020-03-12 |
JP6850037B2 true JP6850037B2 (ja) | 2021-03-31 |
Family
ID=66286251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019160650A Active JP6850037B2 (ja) | 2018-09-05 | 2019-09-03 | 自律走行状況で、障害物検出のためのcnn学習用イメージデータセットの生成方法及びコンピューティング装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10467503B1 (ja) |
EP (1) | EP3620977A1 (ja) |
JP (1) | JP6850037B2 (ja) |
KR (1) | KR102314524B1 (ja) |
CN (1) | CN110879960B (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6585995B2 (ja) * | 2015-11-06 | 2019-10-02 | クラリオン株式会社 | 画像処理システム |
CN111507362B (zh) * | 2019-01-30 | 2023-12-19 | 中强光电股份有限公司 | 神经网络的训练方法、基于神经网络的分类方法及其装置 |
CN111145365A (zh) * | 2019-12-17 | 2020-05-12 | 北京明略软件系统有限公司 | 一种实现分类处理的方法、装置、计算机存储介质及终端 |
CN113225613B (zh) * | 2020-01-21 | 2022-07-08 | 北京达佳互联信息技术有限公司 | 图像识别、视频直播方法和装置 |
US11631163B2 (en) * | 2020-02-11 | 2023-04-18 | Samsung Electronics Co., Ltd. | Mobile data augmentation engine for personalized on-device deep learning system |
US11270164B1 (en) | 2020-09-24 | 2022-03-08 | Ford Global Technologies, Llc | Vehicle neural network |
JPWO2022250071A1 (ja) * | 2021-05-27 | 2022-12-01 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9767565B2 (en) * | 2015-08-26 | 2017-09-19 | Digitalglobe, Inc. | Synthesizing training data for broad area geospatial object detection |
US9965719B2 (en) * | 2015-11-04 | 2018-05-08 | Nec Corporation | Subcategory-aware convolutional neural networks for object detection |
US11003995B2 (en) * | 2017-05-19 | 2021-05-11 | Huawei Technologies Co., Ltd. | Semi-supervised regression with generative adversarial networks |
WO2019067641A1 (en) * | 2017-09-26 | 2019-04-04 | Aquifi, Inc. | SYSTEMS AND METHODS FOR VISUAL INSPECTION BASED ON INCREASED REALITY |
US11562213B2 (en) * | 2018-04-17 | 2023-01-24 | Intel Corporation | Methods and arrangements to manage memory in cascaded neural networks |
-
2018
- 2018-09-05 US US16/121,659 patent/US10467503B1/en active Active
-
2019
- 2019-04-25 EP EP19171149.8A patent/EP3620977A1/en active Pending
- 2019-08-27 KR KR1020190105467A patent/KR102314524B1/ko active IP Right Grant
- 2019-08-29 CN CN201910810618.7A patent/CN110879960B/zh active Active
- 2019-09-03 JP JP2019160650A patent/JP6850037B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
CN110879960B (zh) | 2023-11-14 |
CN110879960A (zh) | 2020-03-13 |
KR20200027886A (ko) | 2020-03-13 |
KR102314524B1 (ko) | 2021-10-20 |
EP3620977A1 (en) | 2020-03-11 |
US10467503B1 (en) | 2019-11-05 |
JP2020038668A (ja) | 2020-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6850037B2 (ja) | 自律走行状況で、障害物検出のためのcnn学習用イメージデータセットの生成方法及びコンピューティング装置 | |
JP6855082B2 (ja) | 自律走行状況での障害物検出のためのcnn学習用イメージデータセットの生成方法及び装置、そしてこれを利用したテスト方法及びテスト装置 | |
JP6923960B2 (ja) | 自動駐車システムを提供するために決定地点間の関係及び決定地点に対するリグレッション結果を利用して駐車スペースを検出する学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 | |
JP6855090B2 (ja) | カメラから取得されたイメージと、それに対応するレーダまたはライダを通じて取得されたポイントクラウドマップをニューラルネットワークのそれぞれのコンボリューションステージごとに統合する学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置 | |
EP3686779B1 (en) | Method and device for attention-based lane detection without post-processing by using lane mask and testing method and testing device using the same | |
KR102296509B1 (ko) | 자율 주행 자동차의 레벨 4를 충족시키기 위해 영역의 클래스에 따라 모드를 전환하여 그리드 셀 별로 가중 컨벌루션 필터를 이용한 감시용 이미지 세그멘테이션 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
EP3693944A1 (en) | Method and device for short-term path planning of autonomous driving through information fusion by using v2x communication and image processing | |
JP6912835B2 (ja) | 自律走行自動車のレベル4を満たすために要求されるhdマップアップデートに利用される、少なくとも一つのアダプティブロス重み付け値マップを利用したアテンションドリブン・イメージセグメンテーション学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 | |
JP6935946B2 (ja) | セグメンテーションスコアマップ及びクラスタリングマップを利用して自律走行車の走行経路を計画するための車線を検出するポストプロセッシング方法及び装置 | |
JP6869565B2 (ja) | 危険要素検出に利用される学習用イメージデータセットの生成方法及びコンピューティング装置、そしてこれを利用した学習方法及び学習装置{method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same} | |
JP6869559B2 (ja) | 障害物を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting obstacles and testing method, testing device using the same} | |
KR20200095337A (ko) | 감시 시스템이 보다 정확하게 주변 상황을 식별하고 희귀 이벤트를 검출할 수 있도록 하기 위해, 생성 뉴럴 네트워크와 판별 뉴럴 네트워크를 포함하는 생성적 적대 신경망을 이용하여 합성여부판단불가 합성 이미지를 생성하는 방법과 장치 | |
US10410352B1 (en) | Learning method and learning device for improving segmentation performance to be used for detecting events including pedestrian event, vehicle event, falling event and fallen event using edge loss and test method and test device using the same | |
JP7092383B2 (ja) | 各領域において最適化された自律走行を遂行できるように位置基盤アルゴリズムの選択によってシームレスパラメータ変更を遂行する方法及び装置 | |
JP6793411B2 (ja) | 自律走行状況で障害物検出のための学習用データセットの生成方法及びこれを利用したコンピューティング装置、学習方法及び学習装置 | |
US10311336B1 (en) | Method and device of neural network operations using a grid generator for converting modes according to classes of areas to satisfy level 4 of autonomous vehicles | |
EP3690797A2 (en) | Learning method and learning device for learning automatic labeling device capable of auto-labeling image of base vehicle using images of nearby vehicles, and testing method and testing device using the same | |
JP6892157B2 (ja) | V2x情報融合技術によって取得された、各物体に対する深さ予測情報及び各物体に対するクラス情報を利用して3d空間を再構築することによりhdマップをアップデートする学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 | |
CN111507161B (zh) | 利用合并网络进行异质传感器融合的方法和装置 | |
US10311578B1 (en) | Learning method and learning device for segmenting an image having one or more lanes by using embedding loss to support collaboration with HD maps required to satisfy level 4 of autonomous vehicles and softmax loss, and testing method and testing device using the same | |
JP6856957B2 (ja) | 写真スタイル変換を使用してランタイム入力の変換によりリアル世界で使用されるバーチャル世界で学習されたcnnを許容するための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
EP3913530B1 (en) | Learning method and learning device for updating object detector, based on deep learning, of autonomous vehicle to adapt the object detector to driving circumstance, and updating method and updating device using the same | |
US10373004B1 (en) | Method and device for detecting lane elements to plan the drive path of autonomous vehicle by using a horizontal filter mask, wherein the lane elements are unit regions including pixels of lanes in an input image | |
EP3686784A1 (en) | Method and device of neural network operations using a grid generator for converting modes according to classes of areas to satisfy level 4 of autonomous vehicles | |
EP3686799A1 (en) | Method and device of neural network operations using a grid generator for converting modes according to classes of areas to satisfy level 4 of autonomous vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190903 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6850037 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |