KR20200091781A - 자율주행 자동차의 레벨 4를 충족시키기 위해 필요한 hd 지도와의 콜라보레이션을 지원하는 임베딩 로스 및 소프트맥스 로스를 이용하여 적어도 하나의 차선을 가지는 이미지를 세그멘테이션하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 - Google Patents
자율주행 자동차의 레벨 4를 충족시키기 위해 필요한 hd 지도와의 콜라보레이션을 지원하는 임베딩 로스 및 소프트맥스 로스를 이용하여 적어도 하나의 차선을 가지는 이미지를 세그멘테이션하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 Download PDFInfo
- Publication number
- KR20200091781A KR20200091781A KR1020190119515A KR20190119515A KR20200091781A KR 20200091781 A KR20200091781 A KR 20200091781A KR 1020190119515 A KR1020190119515 A KR 1020190119515A KR 20190119515 A KR20190119515 A KR 20190119515A KR 20200091781 A KR20200091781 A KR 20200091781A
- Authority
- KR
- South Korea
- Prior art keywords
- softmax
- learning
- scores
- loss
- segmentation
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000012360 testing method Methods 0.000 title claims description 50
- 230000011218 segmentation Effects 0.000 claims abstract description 78
- 230000007423 decrease Effects 0.000 claims abstract description 3
- 238000013527 convolutional neural network Methods 0.000 claims description 85
- 238000012549 training Methods 0.000 claims description 9
- 238000010998 test method Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G06K9/00798—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30236—Traffic on road, railway or crossing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Automation & Control Theory (AREA)
- Probability & Statistics with Applications (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- Biodiversity & Conservation Biology (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
Description
도 1은 본 발명에 따른 학습 장치를 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따라 임베딩 로스 값 및 소프트맥스 로스 값을 백프로파게이션하여 CNN(Convolutional Neural Network)을 학습하는 프로세스를 나타낸 도면이다.
도 3은 본 발명에 따른 클러스터 내의 픽셀 수가 불균형한 경우를 나타낸 도면이다.
도 4a는 종래 기술에 따라 도 3의 이미지가 세그멘테이션된 경우의 세그멘테이션 스코어를 나타낸 도면이다.
도 4b는 본 발명의 일 실시예에 따라 도 3의 이미지가 세그멘테이션된 경우의 세그멘테이션 스코어를 나타낸 도면이다.
Claims (8)
- 적어도 하나의 차선을 가진 입력 이미지를 세그멘테이션 하는 학습 방법에 있어서,
(a) 상기 입력 이미지가 획득되면, 학습 장치가, CNN(Convolutional Neural Network) 모듈로 하여금 상기 입력 이미지에 대하여 컨벌루션 연산을 적어도 한 번 적용하도록 하여 특징 맵을 생성하고 상기 특징 맵에 대하여 디컨벌루션 연산을 적어도 한 번 적용하도록 하여 상기 입력 이미지 상의 각각의 픽셀에 대한 각각의 세그멘테이션 스코어(Segmentation Score)를 생성하도록 하는 단계;
(b) 상기 학습 장치가, 상기 CNN 모듈로 하여금, 상기 각각의 세그멘테이션 스코어에 대하여 소프트맥스 연산(Softmax Operation)을 적어도 한 번 적용하도록 하여 각각의 소프트맥스 스코어를 생성하도록 하는 단계;
(c) 상기 학습 장치가, 상기 CNN 모듈로 하여금, (I) (i) 상기 소프트맥스 스코어 각각에 대하여 다항 로지스틱 로스 연산(Multinomial Logistic Loss Operation)을 적어도 한 번 적용하도록 하여 각각의 소프트맥스 로스를 생성하도록 하고, (ii) 상기 소프트맥스 스코어 각각에 대하여 픽셀 임베딩 연산(Pixel Embedding Operation)을 적어도 한 번 적용하도록 하여, 상기 차선 각각의 상기 세그멘테이션 스코어의 각각의 평균 중 다른 차선 간의 평균의 차이는 커지도록 하고 상기 차선 각각의 상기 세그멘테이션 스코어의 분산 중 각각의 동일 차선 내부의 분산은 작아지도록 상기 CNN 모듈의 학습을 유도하는 각각의 임베딩 로스를 생성한 후, (II) 각각의 상기 소프트맥스 로스 및 각각의 상기 임베딩 로스를 이용한 백프로파게이션을 통해 상기 CNN 모듈의 적어도 하나의 파라미터를 학습하도록 하는 단계;
를 포함하는 것을 특징으로 하는 방법. - 제1 항에 있어서,
상기 임베딩 로스 각각은 상기 수식을 통해 산출되고,
상기 입력 이미지가 상기 차선 및 적어도 하나의 배경 부분을 갖는 복수 개의 클러스터를 포함한다고 하면, 는 상기 입력 이미지 상의 상기 차선 및 상기 배경 부분을 포함하는 상기 클러스터의 개수, 는 각각의 상기 클러스터 안의 픽셀의 개수, 는 각각의 상기 클러스터에 포함된 픽셀 각각에 대응하는 소프트맥스 스코어의 각각의 평균, 는 각각의 상기 픽셀에 대응하는 상기 소프트맥스 스코어 및 각각의 상기 픽셀에 대응하는 상기 를 참조하여 산출된 분산 중 최대값, 는 서로 다른 클러스터에 대응하는 간의 차이 중 최소값을 의미하는 것을 특징으로 하는 방법. - 적어도 하나의 차선을 가진 테스트 이미지를 세그멘테이션 하는 테스트 방법에 있어서,
(a) 학습 장치가, (1) CNN(Convolutional Neural Network) 모듈로 하여금 트레이닝 이미지에 대하여 컨벌루션 연산을 적어도 한 번 적용하도록 하여 학습용 특징 맵을 생성한 후, 상기 학습용 특징 맵에 대하여 디컨벌루션 연산을 적어도 한 번 적용하도록 하여 상기 트레이닝 이미지 상의 각각의 픽셀에 대한 학습용 세그멘테이션 스코어(Segmentation Score) 각각을 생성하도록 하고; (2) 상기 CNN 모듈로 하여금 상기 학습용 세그멘테이션 스코어 각각에 대하여 소프트맥스 연산(Softmax Operation)을 적어도 한 번 적용하도록 하여 학습용 소프트맥스 스코어 각각을 생성하도록 하고; (3) 상기 CNN 모듈로 하여금, (I) (i) 상기 학습용 소프트맥스 스코어 각각에 대하여 다항 로지스틱 로스 연산(Multinomial Logistic Loss Operation)을 적어도 한 번 적용하도록 하여 소프트맥스 로스 각각을 생성하도록 하고, (ii) 상기 학습용 소프트맥스 스코어 각각에 대하여 픽셀 임베딩 연산(Pixel Embedding Operation)을 적어도 한 번 적용하도록 하여, 상기 차선 각각의 상기 학습용 세그멘테이션 스코어의 각각의 평균 중 다른 차선 간의 평균의 차이는 커지도록 하고 상기 차선 각각의 상기 학습용 세그멘테이션 스코어의 분산 중 각각의 동일 차선 내부의 분산은 작아지도록 상기 CNN 모듈의 학습을 유도하는 각각의 임베딩 로스를 생성한 후, (II) 각각의 상기 소프트맥스 로스 및 각각의 상기 임베딩 로스를 이용한 백프로파게이션을 통해 상기 CNN 모듈의 적어도 하나의 파라미터를 학습하도록 한 상태에서, 상기 테스트 이미지가 획득되면, 테스트 장치가, 상기 CNN 모듈로 하여금 상기 테스트 이미지에 대하여 컨벌루션 연산을 적어도 한 번 적용하도록 하여 테스트용 특징 맵을 생성한 후, 상기 테스트용 특징 맵에 대하여 디컨벌루션 연산을 적용하도록 하여 상기 테스트 이미지 상의 각각의 픽셀에 대한 테스트용 세그멘테이션 스코어 각각을 생성하도록 하는 단계; 및
(b) 상기 테스트 장치가, 상기 CNN 모듈로 하여금 상기 테스트용 세그멘테이션 스코어 각각에 대하여 소프트맥스 연산을 적용하도록 하여 테스트용 소프트맥스 스코어 각각을 생성하도록 하는 단계;
를 포함하는 것을 특징으로 하는 방법. - 적어도 하나의 차선을 가진 입력 이미지를 세그멘테이션 하는 학습 장치에 있어서,
인스트럭션을 저장하는 적어도 하나의 메모리; 및
(I) CNN(Convolutional Neural Network) 모듈로 하여금 상기 입력 이미지에 대하여 컨벌루션 연산을 적어도 한 번 적용하도록 하여 특징 맵을 생성하고 상기 특징 맵에 대하여 디컨벌루션 연산을 적어도 한 번 적용하도록 하여 상기 입력 이미지 상의 각각의 픽셀에 대한 각각의 세그멘테이션 스코어(Segmentation Score)를 생성하도록 하는 프로세스, (II) 상기 CNN 모듈로 하여금 상기 각각의 세그멘테이션 스코어에 대하여 소프트맥스 연산(Softmax Operation)을 적어도 한 번 적용하도록 하여 각각의 소프트맥스 스코어를 생성하도록 하는 프로세스, (III) 상기 CNN 모듈로 하여금 (1) (i) 상기 소프트맥스 스코어 각각에 대하여 다항 로지스틱 로스 연산(Multinomial Logistic Loss Operation)을 적어도 한 번 적용하도록 하여 각각의 소프트맥스 로스를 생성하도록 하고, (ii) 상기 소프트맥스 스코어 각각에 대하여 픽셀 임베딩 연산(Pixel Embedding Operation)을 적어도 한 번 적용하도록 하여, 상기 차선 각각의 상기 세그멘테이션 스코어의 각각의 평균 중 다른 차선 간의 평균의 차이는 커지도록 하고 상기 차선 각각의 상기 세그멘테이션 스코어의 분산 중 각각의 동일 차선 내부의 분산은 작아지도록 상기 CNN 모듈의 학습을 유도하는 각각의 임베딩 로스를 생성한 후, (2) 각각의 상기 소프트맥스 로스 및 각각의 상기 임베딩 로스를 이용한 백프로파게이션을 통해 상기 CNN 모듈의 적어도 하나의 파라미터를 학습하도록 하는 프로세스를 수행하기 위한 상기 인스트럭션을 실행하도록 구성된 적어도 하나의 프로세서;
를 포함하는 것을 특징으로 하는 학습 장치. - 제 5 항에 있어서,
상기 임베딩 로스 각각은 상기 수식을 통해 산출되고,
상기 입력 이미지가 상기 차선 및 적어도 하나의 배경 부분을 갖는 복수 개의 클러스터를 포함한다고 하면, 는 상기 입력 이미지 상의 상기 차선 및 상기 배경 부분을 포함하는 상기 클러스터의 개수, 는 각각의 상기 클러스터 안의 픽셀의 개수, 는 각각의 상기 클러스터에 포함된 픽셀 각각에 대응하는 소프트맥스 스코어의 각각의 평균, 는 각각의 상기 픽셀에 대응하는 상기 소프트맥스 스코어 및 각각의 상기 픽셀에 대응하는 상기 를 참조하여 산출된 분산 중 최대값, 는 서로 다른 클러스터에 대응하는 간의 차이 중 최소값을 의미하는 것을 특징으로 하는 학습 장치. - 적어도 하나의 차선을 가진 테스트 이미지를 세그멘테이션 하는 테스트 장치에 있어서,
인스트럭션을 저장하는 적어도 하나의 메모리; 및
학습 장치가, (1) CNN(Convolutional Neural Network) 모듈로 하여금 트레이닝 이미지에 대하여 컨벌루션 연산을 적어도 한 번 적용하도록 하여 학습용 특징 맵을 생성한 후, 상기 학습용 특징 맵에 대하여 디컨벌루션 연산을 적어도 한 번 적용하도록 하여 상기 트레이닝 이미지 상의 각각의 픽셀에 대한 학습용 세그멘테이션 스코어(Segmentation Score) 각각을 생성하도록 하고, (2) 상기 CNN 모듈로 하여금 상기 학습용 세그멘테이션 스코어 각각에 대하여 소프트맥스 연산(Softmax Operation)을 적어도 한 번 적용하도록 하여 학습용 소프트맥스 스코어 각각을 생성하도록 하고, (3) 상기 CNN 모듈로 하여금, (3-1) (i) 상기 학습용 소프트맥스 스코어 각각에 대하여 다항 로지스틱 로스 연산(Multinomial Logistic Loss Operation)을 적어도 한 번 적용하도록 하여 소프트맥스 로스 각각을 생성하도록 하고, (ii) 상기 학습용 소프트맥스 스코어 각각에 대하여 픽셀 임베딩 연산(Pixel Embedding Operation)을 적어도 한 번 적용하도록 하여, 상기 차선 각각의 상기 학습용 세그멘테이션 스코어의 각각의 평균 중 다른 차선 간의 평균의 차이는 커지도록 하고 상기 차선 각각의 상기 학습용 세그멘테이션 스코어의 분산 중 각각의 동일 차선 내부의 분산은 작아지도록 상기 CNN 모듈의 학습을 유도하는 각각의 임베딩 로스를 생성한 후, (3-2) 각각의 상기 소프트맥스 로스 및 각각의 상기 임베딩 로스를 이용한 백프로파게이션을 통해 상기 CNN 모듈의 적어도 하나의 파라미터를 학습하도록 한 상태에서, (I) 상기 CNN 모듈로 하여금 상기 테스트 이미지에 대하여 컨벌루션 연산을 적용하도록 하여 테스트용 특징 맵을 생성한 후, 상기 테스트용 특징 맵에 대하여 디컨벌루션 연산을 적용하도록 하여 상기 테스트 이미지 상의 각각의 픽셀에 대한 테스트용 세그멘테이션 스코어 각각을 생성하도록 하는 프로세스, 및 (II) 상기 CNN 모듈로 하여금 상기 테스트용 세그멘테이션 스코어 각각에 대하여 소프트맥스 연산을 적용하도록 하여 테스트용 소프트맥스 스코어 각각을 생성하도록 하는 프로세스를 수행하기 위한 상기 인스트럭션을 실행하도록 구성된 적어도 하나의 프로세서;
를 포함하는 것을 특징으로 하는 테스트 장치.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/255,339 | 2019-01-23 | ||
US16/255,339 US10311578B1 (en) | 2019-01-23 | 2019-01-23 | Learning method and learning device for segmenting an image having one or more lanes by using embedding loss to support collaboration with HD maps required to satisfy level 4 of autonomous vehicles and softmax loss, and testing method and testing device using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200091781A true KR20200091781A (ko) | 2020-07-31 |
KR102252155B1 KR102252155B1 (ko) | 2021-05-17 |
Family
ID=66673298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190119515A KR102252155B1 (ko) | 2019-01-23 | 2019-09-27 | 자율주행 자동차의 레벨 4를 충족시키기 위해 필요한 hd 지도와의 콜라보레이션을 지원하는 임베딩 로스 및 소프트맥스 로스를 이용하여 적어도 하나의 차선을 가지는 이미지를 세그멘테이션하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10311578B1 (ko) |
EP (1) | EP3686842B1 (ko) |
JP (1) | JP6916548B2 (ko) |
KR (1) | KR102252155B1 (ko) |
CN (1) | CN111476811B (ko) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10890916B2 (en) * | 2019-01-30 | 2021-01-12 | StradVision, Inc. | Location-specific algorithm selection for optimized autonomous driving |
US10776673B2 (en) * | 2019-01-31 | 2020-09-15 | StradVision, Inc. | Learning method and learning device for sensor fusion to integrate information acquired by radar capable of distance estimation and information acquired by camera to thereby improve neural network for supporting autonomous driving, and testing method and testing device using the same |
CN112241728B (zh) * | 2020-10-30 | 2023-04-07 | 中国科学院合肥物质科学研究院 | 采用注意力机制学习上下文信息的实时车道线检测方法及系统 |
CN112329908A (zh) * | 2021-01-04 | 2021-02-05 | 中国人民解放军国防科技大学 | 一种用于神经网络模型测试的图像生成方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160053729A (ko) * | 2014-11-05 | 2016-05-13 | 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 | 이미지 세그멘테이션 방법 및 이미지 세그멘테이션 장치 |
US20170287137A1 (en) * | 2016-03-31 | 2017-10-05 | Adobe Systems Incorporated | Utilizing deep learning for boundary-aware image segmentation |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11074495B2 (en) * | 2013-02-28 | 2021-07-27 | Z Advanced Computing, Inc. (Zac) | System and method for extremely efficient image and pattern recognition and artificial intelligence platform |
US9558268B2 (en) * | 2014-08-20 | 2017-01-31 | Mitsubishi Electric Research Laboratories, Inc. | Method for semantically labeling an image of a scene using recursive context propagation |
US10387773B2 (en) * | 2014-10-27 | 2019-08-20 | Ebay Inc. | Hierarchical deep convolutional neural network for image classification |
CN107438754A (zh) * | 2015-02-10 | 2017-12-05 | 御眼视觉技术有限公司 | 用于自主车辆导航的稀疏地图 |
JP6663926B2 (ja) * | 2015-05-13 | 2020-03-13 | グーグル エルエルシー | DeepStereo:実世界の画像から新たなビューを予測するための学習 |
US9633282B2 (en) * | 2015-07-30 | 2017-04-25 | Xerox Corporation | Cross-trained convolutional neural networks using multimodal images |
US9710714B2 (en) * | 2015-08-03 | 2017-07-18 | Nokia Technologies Oy | Fusion of RGB images and LiDAR data for lane classification |
US9767381B2 (en) * | 2015-09-22 | 2017-09-19 | Xerox Corporation | Similarity-based detection of prominent objects using deep CNN pooling layers as features |
US9965705B2 (en) * | 2015-11-03 | 2018-05-08 | Baidu Usa Llc | Systems and methods for attention-based configurable convolutional neural networks (ABC-CNN) for visual question answering |
US9773196B2 (en) * | 2016-01-25 | 2017-09-26 | Adobe Systems Incorporated | Utilizing deep learning for automatic digital image segmentation and stylization |
US9830529B2 (en) * | 2016-04-26 | 2017-11-28 | Xerox Corporation | End-to-end saliency mapping via probability distribution prediction |
US9947102B2 (en) * | 2016-08-26 | 2018-04-17 | Elekta, Inc. | Image segmentation using neural network method |
US10345449B2 (en) * | 2016-12-02 | 2019-07-09 | Verizon Connect Ireland Limited | Vehicle classification using a recurrent neural network (RNN) |
US9953236B1 (en) * | 2017-03-10 | 2018-04-24 | TuSimple | System and method for semantic segmentation using dense upsampling convolution (DUC) |
GB201709672D0 (en) * | 2017-06-16 | 2017-08-02 | Ucl Business Plc | A system and computer-implemented method for segmenting an image |
US9947103B1 (en) * | 2017-10-03 | 2018-04-17 | StradVision, Inc. | Learning method and learning device for improving image segmentation and testing method and testing device using the same |
US10095977B1 (en) * | 2017-10-04 | 2018-10-09 | StradVision, Inc. | Learning method and learning device for improving image segmentation and testing method and testing device using the same |
US10089743B1 (en) * | 2017-10-05 | 2018-10-02 | StradVision, Inc. | Method for segmenting an image and device using the same |
CN108470320B (zh) * | 2018-02-24 | 2022-05-20 | 中山大学 | 一种基于cnn的图像风格化方法及系统 |
US10140544B1 (en) * | 2018-04-02 | 2018-11-27 | 12 Sigma Technologies | Enhanced convolutional neural network for image segmentation |
GB201809604D0 (en) * | 2018-06-12 | 2018-07-25 | Tom Tom Global Content B V | Generative adversarial networks for image segmentation |
CN109145939B (zh) * | 2018-07-02 | 2021-11-02 | 南京师范大学 | 一种小目标敏感的双通道卷积神经网络语义分割方法 |
-
2019
- 2019-01-23 US US16/255,339 patent/US10311578B1/en active Active
- 2019-09-27 KR KR1020190119515A patent/KR102252155B1/ko active IP Right Grant
- 2019-11-11 EP EP19208314.5A patent/EP3686842B1/en active Active
- 2019-12-16 CN CN201911292541.5A patent/CN111476811B/zh active Active
-
2020
- 2020-01-08 JP JP2020001763A patent/JP6916548B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160053729A (ko) * | 2014-11-05 | 2016-05-13 | 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 | 이미지 세그멘테이션 방법 및 이미지 세그멘테이션 장치 |
US20170287137A1 (en) * | 2016-03-31 | 2017-10-05 | Adobe Systems Incorporated | Utilizing deep learning for boundary-aware image segmentation |
Non-Patent Citations (2)
Title |
---|
"ClusterNet: Instance Segmentation in RGB-D Images", ARXIV.ORG, 24 July 2018 * |
"Towards End-to-End Lane Detection: an Instance Segmentation Approach", 2018 IEEE Intelligent Vehicles Symposium(pp. 286-291), 26 June 2018 * |
Also Published As
Publication number | Publication date |
---|---|
US10311578B1 (en) | 2019-06-04 |
CN111476811A (zh) | 2020-07-31 |
JP2020119531A (ja) | 2020-08-06 |
JP6916548B2 (ja) | 2021-08-11 |
CN111476811B (zh) | 2023-08-29 |
EP3686842A1 (en) | 2020-07-29 |
EP3686842B1 (en) | 2022-07-13 |
KR102252155B1 (ko) | 2021-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102280395B1 (ko) | 차선 후보 픽셀의 분류를 통해 차선을 검출하는 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR102337376B1 (ko) | 레인 마스크(Lane Mask)를 사용하여 후처리 없이 입력 이미지에 포함된 하나 이상의 차선을 검출하는 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR20200027428A (ko) | 에지 이미지를 이용하여 객체를 검출하는 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR102313119B1 (ko) | 자율주행 자동차의 레벨 4를 충족시키기 위해 요구되는 hd 맵 업데이트에 이용될 적어도 하나의 어댑티브 로스 가중치 맵을 이용한 어텐션 드리븐 이미지 세그먼테이션 학습 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치 | |
KR102337358B1 (ko) | 모바일 장치 또는 소형 네트워크에 적용 가능한 하드웨어를 최적화하는데 사용될 수 있는 roi를 풀링하기 위하여, 마스킹 파라미터를 이용하는 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR102296509B1 (ko) | 자율 주행 자동차의 레벨 4를 충족시키기 위해 영역의 클래스에 따라 모드를 전환하여 그리드 셀 별로 가중 컨벌루션 필터를 이용한 감시용 이미지 세그멘테이션 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR20200091781A (ko) | 자율주행 자동차의 레벨 4를 충족시키기 위해 필요한 hd 지도와의 콜라보레이션을 지원하는 임베딩 로스 및 소프트맥스 로스를 이용하여 적어도 하나의 차선을 가지는 이미지를 세그멘테이션하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
CN107480726A (zh) | 一种基于全卷积和长短期记忆单元的场景语义分割方法 | |
KR20200047307A (ko) | 유용한 학습 데이터를 취사 선별하기 위한 cnn 기반 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
US10551845B1 (en) | Method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same | |
KR102314524B1 (ko) | 자율 주행 상황에서 장애물 검출을 위한 cnn 학습용 이미지 데이터 세트의 생성 방법 및 컴퓨팅 장치 | |
JP2020068013A (ja) | 障害物の下段ラインを基準にroiを検出する学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting roi on the basis of bottom lines of obstacles and testing method,testing device using the same} | |
US11113574B1 (en) | Methods for performing self-supervised learning of deep-learning based detection network by using deep Q-network and devices using the same | |
KR20200027889A (ko) | CNN(Convolutional Neural Network)을 사용하여 차선을 검출하기 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
JP2020038663A (ja) | 障害物を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting obstacles and testing method, testing device using the same} | |
KR20200027888A (ko) | 차선 모델을 이용하여 차선을 검출할 수 있는 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
CN111488786B (zh) | 基于cnn的监视用客体检测器的方法及装置 | |
KR20200047304A (ko) | 근접 장애물의 하단 라인과 상단 라인을 검출하여 객체 존재성을 검출하는 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR20200031994A (ko) | Cnn 기반 차선 검출을 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR20200047305A (ko) | 리그레션 로스(Regression loss)를 이용한 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
US10373004B1 (en) | Method and device for detecting lane elements to plan the drive path of autonomous vehicle by using a horizontal filter mask, wherein the lane elements are unit regions including pixels of lanes in an input image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20190927 |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20210223 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20210510 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20210511 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20240221 Start annual number: 4 End annual number: 4 |