KR102565278B1 - 영상 분할 방법, 영상 분할 장치, 및 영상 분할을 위한 학습 방법 - Google Patents

영상 분할 방법, 영상 분할 장치, 및 영상 분할을 위한 학습 방법 Download PDF

Info

Publication number
KR102565278B1
KR102565278B1 KR1020180034286A KR20180034286A KR102565278B1 KR 102565278 B1 KR102565278 B1 KR 102565278B1 KR 1020180034286 A KR1020180034286 A KR 1020180034286A KR 20180034286 A KR20180034286 A KR 20180034286A KR 102565278 B1 KR102565278 B1 KR 102565278B1
Authority
KR
South Korea
Prior art keywords
layers
image
feature
duplicate
learning
Prior art date
Application number
KR1020180034286A
Other languages
English (en)
Other versions
KR20190112378A (ko
Inventor
강나협
이기창
하인우
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020180034286A priority Critical patent/KR102565278B1/ko
Priority to US16/103,187 priority patent/US10810745B2/en
Publication of KR20190112378A publication Critical patent/KR20190112378A/ko
Application granted granted Critical
Publication of KR102565278B1 publication Critical patent/KR102565278B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/274Syntactic or semantic context, e.g. balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

일 실시예에 따른 영상 분할을 위한 학습 방법은 트레이닝 영상으로부터 제1 특징을 추출하는 제1 레이어들을 복제한 제1 복제 레이어들이 타겟 영상으로부터 추출한 제2 특징이 제1 특징과 같아지도록 제1 복제 레이어들을 학습하고, 제1 복제 레이어들이 트레이닝 영상으로부터 추출한 제3 특징과 제1 레이어들이 트레이닝 영상으로부터 추출한 제1 특징 간의 유사도가 미리 설정된 기준을 벗어나지 않도록 제1 복제 레이어들을 정규화하며, 정규화된 제1 복제 레이어들에 대응하여 타겟 영상을 분할하도록, 트레이닝 영상을 분할하는 제2 레이어들을 복제한 제2 복제 레이어들을 학습한다.

Description

영상 분할 방법, 영상 분할 장치, 및 영상 분할을 위한 학습 방법{IMAGE SEGMENTATION METHOD, IMAGE SEGMENTATION DEVICE, AND LEARNING METHOD OFIMAGE SEGMENTATION}
아래 실시예들은 영상 분할 방법, 영상 분할 장치, 및 영상 분할을 위한 학습 방법에 관한 것이다.
영상 분할을 위해 성능이 좋은 학습 모델을 실제 데이터에 적용하더라도 기대만큼 좋은 결과가 나오지 않는 경우가 빈번하게 발생한다. 이는 트레이닝 데이터와 실제 사용하는 데이터 간의 영역 분포(Domain Distribution)가 상이하기 때문이다. 이를 극복하기 위해, 타겟 데이터의 실측 자료(Gound-Truth; GT)에 대응하는 레이블(Label) 정보를 이용하여 타겟 데이터에 대하여 학습하는 미세 조정(Fine-Tuning) 과정이 수행될 수도 있다. 하지만, 실측 자료 및/또는 실측 자료에 대응하는 레이블 정보를 구비하는 데에는 많은 비용이 소모된다. 뿐만 아니라, 실측 자료 및/또는 실측 자료에 대응하는 레이블 영상의 마련이 불가능한 경우도 존재한다.
일 실시예에 따르면, 영상 분할을 위한 학습 방법은 트레이닝 영상으로부터 제1 특징(feature)을 추출하는 제1 레이어들을 복제한 제1 복제 레이어들이 타겟(target) 영상으로부터 추출한 제2 특징이 상기 제1 특징과 같아지도록 상기 제1 복제 레이어들을 학습하는 단계; 상기 제1 복제 레이어들이 상기 트레이닝 영상으로부터 추출한 제3 특징과 상기 제1 레이어들이 상기 트레이닝 영상으로부터 추출한 제1 특징 간의 유사도가 미리 설정된 기준을 벗어나지 않도록 상기 제1 복제 레이어들을 정규화(regularization)하는 단계; 및 상기 정규화된 제1 복제 레이어들에 대응하여 상기 타겟 영상을 분할하도록, 상기 트레이닝 영상을 분할하는 제2 레이어들을 복제한 제2 복제 레이어들을 학습하는 단계를 포함한다.
상기 제1 복제 레이어들을 학습하는 단계는 상기 제1 특징과 상기 제2 특징 간의 차이에 대응하는 로스를 기초로, 상기 제2 특징이 상기 제1 특징과 같아지도록 상기 제1 복제 레이어들을 학습하는 단계를 포함할 수 있다.
상기 영상 분할을 위한 학습 방법은 상기 제1 레이어들이 상기 트레이닝 영상으로부터 추출한 제1 특징과 상기 제1 복제 레이어들이 상기 타겟 영상으로부터 추출한 제2 특징을 구분하도록 상기 구분 신경망을 학습하는 단계를 더 포함할 수 있다.
상기 제2 복제 레이어들을 학습하는 단계는 상기 정규화된 제1 복제 레이어들이 상기 트레이닝 영상으로부터 추출한 특징에 기초하여 분할한 상기 트레이닝 영상의 레이블이 상기 트레이닝 영상에 대응하여 미리 정의된 레이블과 같아지도록 상기 제2 복제 레이어들을 학습하는 단계를 포함할 수 있다.
상기 영상 분할을 위한 학습 방법은 상기 트레이닝 영상 및 상기 트레이닝 영상에 대응하여 미리 정의된 레이블들에 기초하여, 기 학습된 신경망을 상기 제1 레이어들과 상기 제2 레이어들로 분리하는 단계를 더 포함할 수 있다.
상기 영상 분할을 위한 학습 방법은 상기 제1 레이어들을 복제함으로써, 상기 타겟 영상으로부터 상기 제2 특징을 추출하는 상기 제1 복제 레이어들을 생성하는 단계를 더 포함할 수 있다.
상기 영상 분할을 위한 학습 방법은 상기 제2 레이어들을 복제함으로써, 상기 타겟 영상으로부터 추출된 제2 특징에 기초하여 상기 타겟 영상을 의미 별로 분할하는 상기 제2 복제 레이어들을 생성하는 단계를 더 포함할 수 있다.
상기 영상 분할을 위한 학습 방법은 상기 정규화된 제1 복제 레이어들 및 상기 학습된 제2 복제 레이어들을 조합하는 단계; 및 상기 조합된 신경망을 이용하여 상기 타겟 영상을 의미 별로 분할하는 단계를 더 포함할 수 있다.
일 실시예에 따르면, 영상 분할을 위한 학습 방법은 트레이닝 영상으로부터 추출된 특징과 타겟 영상으로부터 추출된 특징을 구분하는 구분 신경망을 학습하는 단계; 상기 구분 신경망의 로스를 기초로, 기 학습된 신경망에 포함된 제1 레이어들- 상기 제1 레이어들은 상기 트레이닝 영상으로부터 제1 특징을 추출함-을 복제한 제1 복제 레이어들이 상기 타겟 영상으로부터 추출한 제2 특징과 상기 제1 레이어들이 상기 트레이닝 영상으로부터 추출한 제1 특징이 같아지도록 상기 제1 복제 레이어들을 학습하는 단계; 상기 제1 복제 레이어들이 상기 트레이닝 영상으로부터 추출한 제3 특징과 상기 제1 특징 간의 유사도가 미리 설정된 기준을 벗어나지 않도록 상기 제1 복제 레이어들을 정규화하는 단계; 및 상기 정규화된 제1 복제 레이어들에 대응하도록 상기 기 학습된 신경망에 포함된 제2 레이어들- 상기 제2 레이어들은 상기 제1 특징에 기초하여 상기 트레이닝 영상을 분할함- 을 복제한 제2 복제 레이어들을 학습하는 단계를 포함한다.
상기 제1 복제 레이어들을 학습하는 단계는 상기 제1 특징과 상기 제2 특징 간의 차이에 대응하는 상기 로스를 기초로, 상기 제2 특징이 상기 제1 특징과 같아지도록 상기 제1 복제 레이어들을 학습하는 단계를 포함할 수 있다.
상기 제2 복제 레이어들을 학습하는 단계는 상기 정규화된 제1 복제 레이어들이 상기 트레이닝 영상으로부터 추출한 특징에 기초하여 분할한 상기 트레이닝 영상의 레이블이 상기 트레이닝 영상에 대응하여 미리 정의된 레이블과 같아지도록 상기 제2 복제 레이어들을 학습하는 단계를 포함할 수 있다.
일 실시예에 따르면, 영상 분할 방법은 타겟 영상을 획득하는 단계; 및 상기 타겟 영상을, 상기 타겟 영상으로부터 특징을 추출하고, 상기 특징에 기초하여 상기 타겟 영상을 분할하도록 학습된 신경망에 인가함으로써, 상기 타겟 영상에 포함된 객체를 의미 단위로 분할한 세그먼테이션(segmentation) 영상을 생성하는 단계를 포함한다.
상기 신경망은 트레이닝 영상으로부터 제1 특징을 추출하는 제1 레이어들을 복제한 제1 복제 레이어들; 및 상기 제1 특징에 기초하여 상기 트레이닝 영상을 분할하는 제2 레이어들을 복제한 제2 복제 레이어들을 포함할 수 있다.
상기 제1 복제 레이어들은 상기 제1 복제 레이어들이 상기 타겟 영상으로부터 추출한 제2 특징이 상기 제1 레이어들이 상기 트레이닝 영상으로부터 추출한 상기 제1 특징과 같아지도록 학습된 것일 수 있다.
상기 제1 복제 레이어들은 상기 제1 특징과 상기 제2 특징 간의 차이에 대응하는 로스를 기초로, 상기 제2 특징이 상기 제1 특징과 같아지도록 학습된 것일 수 있다.
상기 제1 복제 레이어들은 상기 제1 복제 레이어들이 상기 트레이닝 영상으로부터 추출한 제3 특징과 상기 제1 레이어들이 상기 트레이닝 영상으로부터 추출한 제1 특징 간의 유사도가 미리 설정된 기준을 벗어나지 않도록 정규화된 것일 수 있다.
상기 제2 복제 레이어들은 상기 정규화된 제1 복제 레이어들에 대응하여 상기 타겟 영상을 분할하도록 학습된 것일 수 있다.
상기 제2 복제 레이어들은 상기 정규화된 제1 복제 레이어들이 상기 트레이닝 영상으로부터 추출한 특징에 기초하여 분할한 상기 트레이닝 영상의 레이블이 상기 트레이닝 영상에 대응하여 미리 정의된 레이블과 같아지도록 학습된 것일 수 있다.
일 실시예에 따르면, 영상 분할 장치는 타겟 영상을 획득하는 이미지 센서; 및 상기 타겟 영상을, 상기 타겟 영상으로부터 특징을 추출하고, 상기 특징에 기초하여 상기 타겟 영상을 분할하도록 학습된 신경망에 인가함으로써, 상기 타겟 영상에 포함된 객체를 의미 단위로 분할한 세그먼테이션 영상을 생성하는 프로세서를 포함한다.
도 1은 일 실시예에 따른 영상 분할을 위한 학습 방법을 나타낸 흐름도.
도 2는 일 실시예에 따른 영상 분할을 위한 학습 방법을 설명하기 위한 도면.
도 3은 일 실시예에 따라 제1 레이어들 및 제2 레이어들을 포함하는 기 학습된 신경망을 도시한 도면.
도 4는 일 실시예에 따른 복제 레이어들 및 구분 신경망의 학습 동작을 설명하기 위한 도면.
도 5 내지 도 7은 실시예들에 따른 영상 분할을 위한 학습 방법들을 나타낸 흐름도.
도 8은 일 실시예에 따른 영상 분할 방법을 나타낸 흐름도.
도 9는 일 실시예에 따른 영상 분할 장치의 블록도.
본 명세서에 개시되어 있는 특정한 구조적 또는 기능적 설명들은 단지 기술적 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것이다. 개시된 실시예들은 다양한 다른 형태로 변경되어 실시될 수 있으며 본 명세서의 범위는 개시된 실시예들에 한정되지 않는다.
제1 또는 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
하기에서 설명될 실시예들은 스마트 차량 등의 증강 현실 내비게이션 (Augmented Reality Navigation) 시스템에서 차선을 표시하거나, 자율 주행 차량의 조향을 돕기 위한 시각 정보를 생성하는 데에 활용될 수 있다. 또한, 실시예들은 차량 내 주행 보조 또는 완전 자율 주행을 위해 설치된 HUD(Head Up Display) 등의 지능 시스템을 포함하는 기기에서 시각 정보(Visual Information)를 해석하여 안전하고 쾌적한 주행을 돕는 데에 사용될 수 있다. 실시예들은 예를 들어, 자율 주행 자동차, 지능형 자동차, 스마트 폰, 및 모바일 기기 등에 적용될 수 있다. 이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 일 실시예에 따른 영상 분할을 위한 학습 방법을 나타낸 흐름도이다. 도 1을 참조하면, 일 실시예에 따른 학습 장치는 제1 복제 레이어들이 타겟 영상으로부터 추출한 제2 특징이 제1 특징과 같아지도록 제1 복제 레이어들을 학습한다(110). 이때, 제1 특징은 제1 레이어들이 트레이닝 영상으로부터 추출한 특징 또는 특징 벡터에 해당하고, 제2 특징은 제1 복제 레이어들이 타겟 영상으로부터 추출한 특징 또는 특징 벡터에 해당할 수 있다. 제1 레이어들 및 제2 레이어들은 예를 들어, 학습을 위해 미리 마련된 트레이닝 영상(들) 및 트레이닝 영상(들)에 대응하여 미리 정의된 레이블들(labels)에 기초하여 기 학습된 신경망으로부터 분리된 레이어들일 수 있다. 제1 레이어들은 트레이닝 영상으로부터 제1 특징을 추출하도록 학습된 레이어들일 수 있다. 또한, 제2 레이어들은 제1 레이어들이 추출한 제1 특징에 기초하여 트레이닝 영상에 포함된 객체들을 의미 별로 분할하도록 학습된 레이어들일 수 있다. 제2 레이어들은 트레이닝 영상에 포함된 객체들을 의미 별로 분할하여 트레이닝 영상에 대응하는 세그먼테이션 영상을 생성할 수 있다. 제1 레이어들을 '특징 추출 레이어(feature extraction layer)'라 부르고, 제2 레이어들을 '세그먼테이션 레이어(segmentation layer)'라 부를 수도 있다.
학습 장치는 단계(110)에 앞서, 제1 레이어들을 복제함으로써, 타겟 영상으로부터 제2 특징을 추출하는 제1 복제 레이어들을 생성할 수 있다. 또한, 학습 장치는 제2 레이어들을 복제함으로써, 제1 복제 레이어들이 타겟 영상으로부터 추출한 제2 특징에 기초하여 타겟 영상을 의미 별로 분할하는 제2 복제 레이어들을 생성할 수 있다. 제2 복제 레이어들 또한 타겟 영상에 포함된 객체들을 의미 별로 분할하여 타겟 영상에 대응하는 세그먼테이션 영상을 생성할 수 있다. 다시 말해, 제1 복제 레이어들은 제1 레이어들을 복제한 레이어들에 해당하고, 제2 복제 레이어들은 제2 레이어들을 복제한 레이어들에 해당할 수 있다.
타겟 영상은 해당 영상에 포함된 객체들의 의미 별로 영역을 분할하여 세그먼테이션 영상을 생성하고자 하는 대상이 되는 영상에 해당할 수 있다. 타겟 영상은 학습 장치에 포함된 이미지 센서 또는 촬영 장치를 통해 촬영된 영상일 수 있다. 타겟 영상은 예를 들어, 2D 또는 3D 컬러 이미지일 수 있고, 흑백 이미지, 또는 적외선 이미지일 수도 있으나, 반드시 이에 한정되지는 않는다.
타겟 영상은 예를 들어, 도로를 주행 중인 차량의 전방(front view) 및/또는 측방(side view)을 촬영한 영상일 수 있다. 타겟 영상은 하나 또는 복수개 이며, 차량의 전면에 장착된 촬영 장치를 이용하여 매 프레임(Frame)마다 획득될 수 있다. 촬영 장치는 예를 들어, 모노 카메라(mono camera), 비전 센서, 이미지 센서, 적외선 센서, 또는 이와 유사한 기능을 수행하는 장치를 포함할 수 있다. 또는 타겟 영상은 영상 분할 장치에 포함된 촬영 장치, 또는 영상 분할 장치 이외의 다른 장치에서 캡쳐된 영상일 수 있다.
단계(110)에서, 학습 장치는 제1 특징과 상기 제2 특징 간의 차이에 대응하는 로스(loss)에 기초하여, 제2 특징이 제1 특징과 같아지도록 제1 복제 레이어들을 학습할 수 있다. 이때, 구분 신경망은 해당 특징이 트레이닝 영상으로부터 추출된 것인지 또는 타겟 영상으로부터 추출된 것인지를 구분하도록 학습된 신경망에 해당할 수 있다. 구분 신경망은 예를 들어, 제1 레이어들이 트레이닝 영상으로부터 추출한 제1 특징과 제1 복제 레이어들이 타겟 영상으로부터 추출한 제2 특징을 구분하도록 학습될 수 있다.
학습 장치는 제1 복제 레이어들이 트레이닝 영상으로부터 추출한 제3 특징과 제1 레이어들이 트레이닝 영상으로부터 추출한 제1 특징 간의 유사도가 미리 설정된 기준을 벗어나지 않도록 제1 복제 레이어들을 정규화한다(120). 학습 장치는 제3 특징과 제1 특징이 동일 또는 유사하도록 제1 복제 레이어들의 파라미터들 또는 가중치들을 조정할 수 있다. 학습 장치가 제1 복제 레이어들을 학습하는 방법 및 정규화하는 방법은 아래의 도 2 및 도 4를 참조하여 구체적으로 설명한다.
학습 장치는 단계(120)에서 정규화된 제1 복제 레이어들에 대응하여 타겟 영상을 분할하도록, 트레이닝 영상을 분할하는 제2 레이어들을 복제한 제2 복제 레이어들을 학습한다(130). 학습 장치는 정규화된 제1 복제 레이어들이 트레이닝 영상으로부터 추출한 특징에 기초하여 분할한 트레이닝 영상의 레이블이 트레이닝 영상에 대응하여 미리 정의된 레이블과 같아지도록 제2 복제 레이어들을 학습할 수 있다.
학습 장치는 정규화된 제1 복제 레이어들 및 제2 복제 레이어들을 조합함으로써 타겟 영상을 의미 별로 분할하여 세그먼테이션 영상을 생성하는 새로운 학습 신경망을 생성할 수 있다.
도 2는 일 실시예에 따른 영상 분할을 위한 학습 방법을 설명하기 위한 도면이다. 도 2를 참조하면, 제1 레이어들(F)(211) 및 제2 레이어들(S)(213)을 포함하는 기 학습된 신경망(N)(210), 제1 레이어들(F)(211)로부터 복제된 제1 복제 레이어들(F')(231), 제2 레이어들(S)(213)로부터 복제된 제2 복제 레이어들(S')(233), 및 구분 신경망(D)(250)이 도시된다.
또한, Xs는 트레이닝 영상(들), 또는 소스(source)영상(들) 또는 이들의 집합을 나타내고, Ls는 트레이닝 영상(들) 또는 소스(source) 영상(들)에 대응하는 레이블들에 의해 분류된 레이블 영상 또는 레이블 영상들의 집합을 나타낼 수 있다. Xt는 실제 사용할 영상, 다시 말해 타겟 영상(들) 또는 타겟 영상들의 집합을 나타낸다. 이때, 타겟 영상(들)(Xt)에 대응하는 레이블들 또는 이들에 의해 분류된 레이블 영상(들)은 존재하지 않는다.
신경망(N)(210)은 특징을 추출하는 제1 레이어들(F)(211)와 세그먼테이션을 수행하는 제2 레이어들(S)(213)로 이루어진다고 가정할 수 있다. 또한, 제1 레이어들(F)(211)과 제2 레이어들(S)(213)은 트레이닝 영상(들)(Xs) 및 레이블 영상(들)(Ls)를 이용해 이미 학습을 마쳤다고 가정한다. 기 학습된 신경망(N)(210)의 동작에 대하여는 아래의 도 3을 참조하여 구체적으로 설명한다.
학습 장치는 제1 레이어들(F)(211)를 복사해서 제1 복제 레이어들(F')(231)을 생성할 수 있다. 트레이닝 영상(들)(Xs)이 입력되면, 제1 레이어들(F)(211)은 트레이닝 영상(들)(Xs)으로부터 특징 F(Xs)을 추출 또는 생성할 수 있다. 또한, 타겟 영상(들)(Xt)이 입력되면, 제1 복제 레이어들(F')(231)은 타겟 영상(들)(Xt)으로부터 특징 F'(Xt)를 추출 또는 생성할 수 있다. 따라서 학습 시에 학습 장치는 트레이닝 영상(Xs)에 대응하는 특징 F(Xs)와 타겟 영상(들)(Xt)에 대응하는 특징 F'(Xt)의 두 가지 특징들을 추출 또는 생성할 수 있다.
학습 장치는 트레이닝 영상(Xs)에 대응하는 특징 F(Xs)와 타겟 영상(Xt)에 대응하는 특징 F'(Xt)을 입력으로 받는 구분 신경망 D(Discriminator Neural Network)(250)를 구성할 수 있다. 구분 신경망 D(250)은 특징 F(Xs)와 특징 F'(Xt)을 입력 받아, 해당 특징이 트레이닝 영상(Xs)으로부터 추출된 것인지 또는 타겟 영상(Xt)으로부터 추출된 것인지를 구별하도록 학습될 수 있다. 구분 신경망 D(250)은 예를 들어, D(F(Xs)) = 1, D(F'(Xt)) = 0이 되도록 학습될 수 있다. 학습 장치는 구분 신경망 D(250)을 학습하면서, 제1 복제 레이어들(F')(231)도 함께 학습할 수 있다. 이때, 제1 복제 레이어들(F')(231)은 D(F'(Xt)) = 1 로 착각하도록 학습될 수 있다.
이러한 학습 방법을 '대립적 학습(Adversarial Training)'이라고 한다. 학습 장치는 구분 신경망 D(250)을 이용하여 제1 복제 레이어들(F')(231)에 대한 대립적 학습을 수행할 수 있다(①). 구분 신경망 D(250)의 동작 방법에 대하여는 아래의 도 4를 참조하여 구체적으로 설명한다.
학습 장치는 입력된 영상이 타겟 영상(Xt)임에도 이를 마치 트레이닝 영상(Xs)인 것처럼 처리하도록 제1 복제 레이어들(F')(231)의 가중치 또는 파라미터들을 미세 조정(fine-tuning)할 수 있다. 이때, 학습 장치는 제1 레이어들(F)(211)의 가중치를 고정하여 특징 F(Xs)가 일정한 분포를 지속적으로 나타내도록 할 수 있다.
학습 장치는 제1 복제 레이어들(F')(231)이 트레이닝 영상(Xs)으로부터 추출한 특징(예를 들어, 제3 특징) F'(Xs)과 제1 레이어들(F)(211)이 트레이닝 영상(Xs)으로부터 추출한 특징(예를 들어, 제1 특징) F(Xs)이 서로 달라지지 않도록 제1 복제 레이어들(F')(231)을 정규화할 수 있다(②). 다시 말해, 학습 장치는 특징 F'(Xs)과 특징 F(Xs) 간의 유사도가 미리 설정된 기준을 벗어나지 않도록 제1 복제 레이어들(F')(231)의 가중치를 조정할 수 있다.
이러한 정규화는 제1 레이어들(F)(211)을 복제한 제1 복제 레이어들(F')(231)이 타겟 영상(Xt)에 맞게 재학습되는 과정에서 제1 레이어들(F)(211) 본연의 특징(가중치 또는 파라미터 값)을 잃지 않도록 제1 레이어들(F)(211)의 파라미터 값들 또는 가중치들을 조정하는 과정에 해당할 수 있다.
학습 장치는 최종적으로 조정된 제1 복제 레이어들(F')(231)을 고정한 후, 제2 레이어들(S)(213)을 복제하여 제2 복제 레이어들(S')(233)을 생성할 수 있다. 학습 장치는 트레이닝 영상(들)(Xs) 및 트레이닝 영상에 대응하여 미리 정의된 레이블(들)(Ls)을 이용하여 제2 복제 레이어들(S')(233)을 트레이닝 함으로써 제2 복제 레이어들(S')(233)을 갱신할 수 있다. 이러한 과정은 제1 복제 레이어들(F')(231)이 이미 타겟 영상(Xt)에 대한 부분을 반영하여 변경된 특징 공간(feature space)를 가지므로, 제2 복제 레이어들(S')(233) 또한 제1 복제 레이어들(F')(231)에 대응하여 변경된 특징 공간에 대응되도록 미세 조정을 하는 과정에 해당할 수 있다(③).
실시예에 따라서, 과정 ① 및 과정 ②의 수행 순서로 서로 변경될 수도 있으며, 과정 ① 및 과정 ②은 반복적으로 수행될 수도 있다. 과정 ③은 최종적으로 조정된 제1 복제 레이어들(F')(231)에 대응하여 제2 복제 레이어들(S')(233)을 미세 조정하는 과정이므로 과정 ①과 과정 ②이 모두 완료된 뒤에 수행될 수 있다.
학습 장치는 전술한 과정을 통해 학습된 제1 복제 레이어들(F')(231)과 제2 복제 레이어들(S')(233)을 연결하여 기 학습된 신경망(N)(210)을 대체하는 새로운 학습 신경망(N')(230)을 구성할 수 있다.
일 실시예에 따르면, 기 학습된 신경망(N)(210)에 포함된 레이어들을 복제하여 복제 레이어들(예를 들어, 제1 복제 레이어들(F')(231) 및 제2 복제 레이어들(S')(233))을 생성하고, 기 학습된 신경망(N)(210)에 적용된 트레이닝 영상(들)(Xs), 트레이닝 영상에 대응하여 미리 정의된 레이블(들)(Ls), 및 구분 신경망 D(250)을 이용하여 복제 레이어들을 재학습 시킴으로써 실측 자료 및 실측 자료에 대응하는 레이블 정보가 없이도 영역 적응(domain adaptation)을 수행할 수 있다.
일 실시예에 따라 생성된 새로운 학습 신경망(N')은 신경망(N)(210)과 동일한 구조를 가지지만, 학습 신경망(N')의 가중치(weight) 또는 파라미터(parameter)는 타겟 영상들에 맞춰진 신경망에 해당할 수 있다.
일 실시예에서는 타겟 영상(Xt)이 입력되면, 새로운 학습 신경망(N')을 이용하여 영상을 분할하여 신경망(N)(210) 대비 더 좋은 성능을 획득할 수 있다.
도 3은 일 실시예에 따라 제1 레이어들 및 제2 레이어들을 포함하는 신경망(N)을 도시한 도면이다. 도 3을 참조하면, 신경망(N)(330)은 트레이닝 영상(310)이 입력되면, 특징 추출 과정(F) 및 세그먼테이션 과정(S)을 거쳐 세그먼테이션 영상(350)을 생성할 수 있다.
특징 추출 과정(F)은 예를 들어, 트레이닝 영상(310)으로부터 여러 단계의 컨볼루션 레이어(convolution layer)를 통해 추출한 특징에 기초하여 특징 맵을 생성하는 과정에 해당할 수 있다. 트레이닝 영상(310)은 예를 들어, 2D 또는 3D 컬러 이미지일 수 있고, 흑백 이미지, 또는 적외선 이미지일 수도 있으나, 반드시 이에 한정되지는 않는다.
세그먼테이션 과정(S)은 예를 들어, 풀리 커넥티드 레이어(fully connected layer)로 구성된 분류 네트워크를 통해 트레이닝 영상(310)에 포함된 객체를 분할하는 과정에 해당할 수 있다. 신경망(N)(330)은 예를 들어, AlexNet, VGGNet, GoogleNET 처럼 잘 알려진 분류 네트워크를 이용하여 트레이닝 영상(310)으로부터 의미 단위로 물체를 분할하고, 분할된 영역이 어떤 의미를 갖는지를 픽셀(Pixel) 단위로 파악하여 각 클래스(class)마다 레이블링 함으로써 세그먼테이션 영상(350)을 생성할 수 있다. 클래스는 예를 들어, 도로, 차량, 인도, 사람, 동물, 하늘, 건물 등과 같은 의미 단위에 따라 20개 정도로 분류될 수 있다.
후술하는 영상 분할 장치는 세그먼테이션 영상(350)에 포함된 픽셀 단위의 레이블로부터 물체, 배경 등 영상 내에 구성 요소들이 어디에 어떻게 존재하는지 정밀하게 파악할 수 있다. 또한, 영상 분할 장치는 예를 들어, 미리 학습된 컨볼루션 신경망(Convolution Neural Network; CNN), 심층 신경망, 서포트 벡터 머신 등을 이용하여 세그먼테이션 영상 내에 포함된 구성 요소들을 분류할 수 있다.
특징 추출 과정(F)은 전술한 제1 레이어들에 의해 수행되고, 세그먼테이션 과정(S)은 전술한 제2 레이어들에 의해 수행될 수 있다.
신경망(N)(330)에 포함된 제1 레이어들은 여러 단계의 컨볼루션 레이어들을 통해 트레이닝 영상(310)으로부터 추출된 특징 또는 특징 벡터를 기초로 특징 맵(feature map)을 구성한 후, 특징 맵에 대한 정보를 풀링 레이어(pooling layer)를 거쳐 세그먼테이션 과정(S)으로 전달할 수 있다.
트레이닝 영상(310)은 세그먼테이션 과정(S)에서의 분류 네트워크를 거치면서 원 영상의 1/32의 크기로 줄어들 수 있다. 신경망(N)(330)은 픽셀 단위의 조밀한 예측을 위해, 줄어든 영상을 업 샘플링(up sampling) 및 연결 레이어들(concatenation layers)을 통한 연결 과정을 통해 다시 원영상 크기로 복원하는 과정을 수행할 수 있다.
세그먼테이션 과정(S)에서 신경망(N)(330)은 트레이닝 영상(310)으로부터 트레이닝 출력을 출력하도록 학습된 분류기 모델(classifier model)을 이용하여, 트레이닝 영상(310)을 복수의 영역으로 분할할 수 있다. 분류기 모델은 예를 들어, 컨볼루션 신경망일 수 있다. 트레이닝 출력은 트레이닝 영상(310)이 분할된 영역 이미지일 수 있다. 예를 들어, 트레이닝 출력은, 트레이닝 영상(310)의 각 픽셀에 대응하는 속성 또는 클래스(예를 들어, 차량, 사람, 객체, 및 배경 등)가 수동으로 지정되고, 지정된 속성 또는 클래스에 기초하여 미리 분할된 영역 이미지일 수 있다.
도 4는 일 실시예에 따른 복제 레이어들 및 구분 신경망의 학습 동작을 설명하기 위한 도면이다. 도 4의 (a)를 참조하면, 학습 장치에 트레이닝 영상(Xs)이 입력된 경우에 제1 복제 레이어들(F')과 구분 신경망(D)이 학습되는 동작이 도시된다.
학습 장치에 트레이닝 영상(Xs)이 입력되면, 제1 레이어들(F)(410)은 트레이닝 영상(Xs)에 대응하는 특징 F(Xs)을 추출하고, 제1 복제 레이어들(F')(420)은 트레이닝 영상(Xs)에 대응하는 특징 F'(Xs)을 추출할 수 있다. 학습 장치는 제1 복제 레이어들(F')(420)이 트레이닝 영상(Xs)으로부터 추출한 특징 F'(Xs)이 제1 레이어들(F)(410)이 트레이닝 영상(Xs)으로부터 추출한 특징 F(Xs)과 같아지도록 제1 복제 레이어들(F')(420)을 정규화할 수 있다. 예를 들어, 특징 F'(Xs)과 특징 F(Xs) 간의 차이에 대응하는 로스(loss)가 역-전파(back-propagation) 기법을 통하여 제1 복제 레이어들(F')(420)에 입력됨으로써, 제1 복제 레이어들(F')(420)이 정규화될 수 있다.
학습 장치는 특징 F(Xs)를 신경망 D(430)에 인가하고, 신경망 D(430)의 출력 D(F(Xs)이 미리 정해진 제1 값(예를 들어, '1')이 되도록 신경망 D(430)을 학습할 수 있다.
도 4의 (b)를 참조하면, 학습 장치로 타겟 영상(Xt)이 입력된 경우에 제1 복제 레이어들(F')과 구분 신경망(D)이 학습되는 동작이 도시된다.
학습 장치에 타겟 영상(Xt)이 입력되면, 학습 장치는 제1 복제 레이어들(F')(420)이 타겟 영상(Xt)으로부터 추출한 특징 F'(Xt)을 신경망 D(430)에 인가할 수 있다. 학습 장치는 신경망 D(430)의 출력 D(F'(Xt))이 미리 정해진 제2 값(예를 들어, '0')이 되도록 신경망 D(430)과 제1 복제 레이어들(F')(420)을 학습할 수 있다.
도 4에서 트레이닝 영상(Xs) 및 타겟 영상(Xt)은 동시에 학습 장치에 입력되는 것은 아니고, 미리 정해진 수만큼(예를 들어, 하나씩) 반복적(iteratively)으로 입력될 수 있다.
전술한 과정을 통하여, 제1 복제 레이어들(F')(420)은 트레이닝 영상(Xs)으로부터 특징을 추출하는 기 학습된 특성을 기반으로 하여, 타겟 영상(Xt)으로부터 특징을 추출하기에 적합하도록 적응될 수 있다.
도 5은 다른 실시예에 따른 영상 분할을 위한 학습 방법을 나타낸 흐름도이다. 도 5를 참조하면, 일 실시예에 따른 학습 장치는 트레이닝 영상으로부터 제1 특징을 추출하는 제1 레이어들을 복제한 제1 복제 레이어들이 트레이닝 영상으로부터 추출한 제3 특징과 제1 레이어들이 트레이닝 영상으로부터 추출한 제1 특징 간의 유사도가 미리 설정된 기준을 벗어나지 않도록 제1 복제 레이어들을 정규화할 수 있다(510).
학습 장치는 정규화된 제1 복제 레이어들이 타겟 영상으로부터 추출한 제2 특징이 제1 특징과 같아지도록 제1 복제 레이어들을 학습할 수 있다(520).
학습 장치는 단계(520)에서 학습된 제1 복제 레이어들에 대응하여 타겟 영상을 분할하도록, 트레이닝 영상을 분할하는 제2 레이어들을 복제한 제2 복제 레이어들을 학습할 수 있다(530).
학습 장치는 단계(520)에서 학습된 제1 복제 레이어들과 단계(530)에서 학습된 제2 복제 레이어들을 조합함으로써 새로운 학습 신경망을 생성할 수 있다.
도 6은 다른 실시예에 따른 영상 분할을 위한 학습 방법을 나타낸 흐름도이다. 도 6을 참조하면, 일 실시예에 따른 학습 장치는 트레이닝 영상으로부터 추출된 특징과 타겟 영상으로부터 추출된 특징을 구분하는 구분 신경망을 학습한다(610).
학습 장치는 구분 신경망의 로스를 기초로, 기 학습된 신경망에 포함된 제1 레이어들을 복제한 제1 복제 레이어들이 타겟 영상으로부터 추출한 제2 특징과 제1 레이어들이 트레이닝 영상으로부터 추출한 제1 특징이 같아지도록 제1 복제 레이어들을 학습한다(620). 학습 장치는 제1 특징과 제2 특징을 서로 구분하는 구분 신경망의 로스를 기초로, 제2 특징이 제1 특징과 같아지도록 제1 복제 레이어들을 학습할 수 있다. 구분 신경망의 로스는 예를 들어, 제1 특징과 제2 특징 간의 차이에 대응하는 로스에 해당할 수 있다.
학습 장치는 제1 복제 레이어들이 트레이닝 영상으로부터 추출한 제3 특징과 제1 특징 간의 유사도가 미리 설정된 기준을 벗어나지 않도록 제1 복제 레이어들을 정규화한다(630).
학습 장치는 정규화된 제1 복제 레이어들에 대응하도록 기 학습된 신경망에 포함된 제2 레이어들을 복제한 제2 복제 레이어들을 학습한다(640). 학습 장치는 정규화된 제1 복제 레이어들이 트레이닝 영상으로부터 추출한 특징에 기초하여 분할한 트레이닝 영상의 레이블이 트레이닝 영상에 대응하여 미리 정의된 레이블과 같아지도록 제2 복제 레이어들을 학습할 수 있다.
도 7은 다른 실시예에 따른 영상 분할을 위한 학습 방법을 나타낸 흐름도이다. 도 7을 참조하면, 일 실시예에 따른 학습 장치는 기 학습된 신경망을 분해할 수 있다(710). 이때, 기 학습된 신경망은 트레이닝 영상(들) 및 트레이닝 영상(들)에 대응하여 미리 정의된 레이블들에 기초하여 학습된 것일 수 있다. 기 학습된 신경망은 트레이닝 영상으로부터 제1 특징을 추출하는 제1 레이어들 및 제1 특징에 기초하여 트레이닝 영상을 의미 별로 분할하는 제2 레이어들을 포함할 수 있다. 학습 장치는 기 학습된 신경망을 분해하여 제1 레이어들과 제2 레이어들을 분리할 수 있다.
학습 장치는 제1 레이어들을 대립적 학습을 수행할 수 있다(720). 대립적 학습에 대하여는 전술한 도 2 및 도 4의 설명을 참고하기로 한다.
학습 장치는 대립적 학습에 의해 학습된 제1 복제 레이어들을 정규화할 수 있다(730).
학습 장치는 제2 레이어들을 미세 조정할 수 있다(740). 학습 장치는 정규화된 제1 복제 레이어들에 대응하여 제2 레이어들을 복제한 제2 복제 레이어들을 미세 조정할 수 있다. 제2 레이어들을 미세 조정하는 방법은 전술한 도 2의 설명을 참고하기로 한다.
학습 장치는 새 학습 신경망을 조합할 수 있다(750). 학습 장치는 단계(730)에서 정규화된 제1 복제 레이어들 및 단계(740)에서 미세 조정된 제2 레이어들을 조합함으로써 새로운 학습 신경망을 생성할 수 있다.
도 8은 일 실시예에 따른 영상 분할 방법을 나타낸 흐름도이다. 도 8을 참조하면, 일 실시예에 따른 영상 분할 장치는 타겟 영상을 획득한다(810).
영상 분할 장치는 타겟 영상을 학습된 신경망에 인가함으로써, 타겟 영상에 포함된 객체를 의미 단위로 분할한 세그먼테이션 영상을 생성한다(820). 이때, 학습된 신경망은 타겟 영상으로부터 특징을 추출하고, 특징에 기초하여 타겟 영상을 분할하도록 학습된 신경망으로서, 트레이닝 영상으로부터 제1 특징을 추출하는 제1 레이어들 및 제1 특징에 기초하여 트레이닝 영상을 분할하는 제2 레이어들을 포함하는 학습된 신경망을 대체하는 새로운 신경망에 해당할 수 있다. 새로운 신경망은 제1 레이어들을 복제한 제1 복제 레이어들, 및 제2 레이어들을 복제한 제2 복제 레이어들을 포함할 수 있다.
제1 복제 레이어들은 예를 들어, 제1 복제 레이어들이 타겟 영상으로부터 추출한 제2 특징이 제1 레이어들이 트레이닝 영상으로부터 추출한 제1 특징과 같아지도록 학습된 것일 수 있다. 이때, 제1 복제 레이어들은 제1 특징과 제2 특징 간의 차이에 대응하는 로스에 기초하여, 제2 특징이 제1 특징과 같아지도록 학습될 수 있다. 또한, 제1 복제 레이어들은 제1 복제 레이어들이 트레이닝 영상으로부터 추출한 제3 특징과 제1 레이어들이 트레이닝 영상으로부터 추출한 제1 특징 간의 유사도가 미리 설정된 기준을 벗어나지 않도록 정규화된 것일 수 있다.
제2 복제 레이어들은 정규화된 제1 복제 레이어들에 대응하여 타겟 영상을 분할하도록 학습된 것일 수 있다. 제2 복제 레이어들은 예를 들어, 정규화된 제1 복제 레이어들이 트레이닝 영상으로부터 추출한 특징에 기초하여 분할한 트레이닝 영상의 레이블이 트레이닝 영상에 대응하여 미리 정의된 레이블과 같아지도록 학습될 수 있다.
영상 분할 장치는 각 클래스 별 영역에 대응하는 레이블을 통해 세그먼테이션 영상 내에 구성 요소들이 어디에 어떻게 존재하는지를 정밀하게 파악할 수 있다. 영상 분할 장치는 타겟 영상으로부터 의미 단위로 물체를 분할하고, 분할된 영역이 어떤 의미를 갖는지를 픽셀 단위로 파악하여 각 클래스(예를 들어, 도로, 차량, 인도, 사람, 동물, 하늘, 건물 등)마다 레이블링 함으로써 세그먼테이션 영상을 생성할 수 있다.
도 9는 일 실시예에 따른 영상 분할 장치의 블록도이다. 도 9를 참조하면, 일 실시예에 따른 영상 분할 장치(900)는 이미지 센서(910), 통신 인터페이스(920), 프로세서(930), 및 메모리(940)를 포함한다. 실시예에 따라서, 영상 분할 장치(900)는 디스플레이 장치(950)를 더 포함할 수 있다. 이미지 센서(910), 통신 인터페이스(920), 프로세서(930), 메모리(940), 및 디스플레이 장치(950)는 통신 버스(bus)(905)를 통해 서로 통신할 수 있다.
이미지 센서(910)는 타겟 영상을 획득한다. 이미지 센서(910)는 타겟 영상을 감지 또는 촬영함으로써 획득할 수 있다.
영상 분할 장치(900)에 의해 생성된 세그먼테이션 영상을 외부로 출력할 수 있다. 실시예에 따라서, 통신 인터페이스(920)는 영상 분할 장치(900)의 외부에서 촬영된 타겟 영상을 수신할 수도 있다.
프로세서(930)는 타겟 영상을, 상기 타겟 영상으로부터 특징을 추출하고, 상기 특징에 기초하여 상기 타겟 영상을 분할하도록 학습된 신경망에 인가함으로써, 상기 타겟 영상에 포함된 객체를 의미 단위로 분할한 세그먼테이션 영상을 생성한다.
프로세서(930)는 도 1 내지 도 7을 통해 전술한 학습 방법에 의해 학습된 신경망을 이용하여 타겟 영상에 대응하여 세그먼테이션 영상을 생성할 수 있다. 또한, 프로세서(930)는 세그먼테이션 영상을 기초로, 타겟 영상에 포함된 객체들을 인식 및/또는 식별할 수 있다.
프로세서(930)는 타겟 영상으로부터 식별된 객체에 대한 정보를 기초로 차량 주행을 위한 제어 정보(예를 들어, 조향 정보, 브레이크 정보, 속도 정보 등)를 생성할 수도 있다. 또는, 프로세서(930)는 인식 및/또는 식별된 객체에 대한 정보를 지도 정보 및/또는 내비게이션 정보와 조합하여 차량 주행 보조를 위한 영상을 생성할 수 있다. 프로세서(930)는 차량 주행 보조를 위한 영상을 디스플레이 장치(950)를 통해 표시할 수 있다. 또는 프로세서(930)는 식별된 객체에 대한 정보를 통신 인터페이스(920)를 통해 전송할 수 있다.
이 밖에도, 프로세서(930)는 도 1 내지 도 8을 통해 전술한 방법 또는 방법에 대응되는 알고리즘을 수행할 수 있다. 프로세서(930)는 프로그램을 실행하고, 영상 분할 장치(900)를 제어할 수 있다. 프로세서(930)에 의하여 실행되는 프로그램 코드는 메모리(940)에 저장될 수 있다.
메모리(940)는 타겟 영상을 저장할 수 있다. 또한, 메모리(940)는 프로세서(930)가 생성한 세그먼테이션 영상 및/또는 차량 주행 보조를 위한 영상을 저장할 수 있다.
메모리(940)는 타겟 영상으로부터 특징을 추출하고, 특징에 기초하여 타겟 영상을 의미 단위로 분할하도록 학습된 신경망의 파라미터들을 저장할 수 있다. 프로세서(930)는 메모리(940)에 저장된 파라미터들을 적용한 신경망을 이용하여 타겟 영상으로부터 세그먼테이션 영상을 생성하고, 또한 타겟 영상에 포함된 객체를 구분 및/또는 식별할 수 있다. 신경망은 예를 들어, 컨볼루션 신경망일 수 있다. 컨볼루션 신경망은 타겟 영상에서 검출하고자 하는 객체의 바운딩 박스와 검출하고자 하는 객체의 종류가 함께 판별 되도록 학습된 것일 수 있다.
또한, 메모리(940)는 상술한 프로세서(930)에서의 처리 과정에서 생성되는 다양한 정보들을 저장할 수 있다. 이 밖에도, 메모리(940)는 각종 데이터와 프로그램 등을 저장할 수 있다. 메모리(940)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(940)는 하드 디스크 등과 같은 대용량 저장 매체를 구비하여 각종 데이터를 저장할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 저장될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 트레이닝 영상으로부터 제1 특징(feature)을 추출하는 제1 레이어들을 복제한 제1 복제 레이어들이 타겟(target) 영상으로부터 추출한 제2 특징이 상기 제1 특징과 같아지도록 상기 제1 복제 레이어들을 학습하는 단계;
    상기 제1 복제 레이어들이 상기 트레이닝 영상으로부터 추출한 제3 특징과 상기 제1 레이어들이 상기 트레이닝 영상으로부터 추출한 제1 특징 간의 유사도가 미리 설정된 기준을 벗어나지 않도록 상기 제1 복제 레이어들을 정규화(regularization)하는 단계; 및
    상기 정규화된 제1 복제 레이어들에 대응하여 상기 타겟 영상을 분할하도록, 상기 트레이닝 영상을 분할하는 제2 레이어들을 복제한 제2 복제 레이어들을 학습하는 단계
    를 포함하는, 영상 분할을 위한 학습 방법.
  2. 제1항에 있어서,
    상기 제1 복제 레이어들을 학습하는 단계는
    상기 제1 특징과 상기 제2 특징 간의 차이에 대응하는 로스를 기초로, 상기 제2 특징이 상기 제1 특징과 같아지도록 상기 제1 복제 레이어들을 학습하는 단계
    를 포함하는, 영상 분할을 위한 학습 방법.
  3. 제2항에 있어서,
    상기 제1 레이어들이 상기 트레이닝 영상으로부터 추출한 제1 특징과 상기 제1 복제 레이어들이 상기 타겟 영상으로부터 추출한 제2 특징을 구분하도록 상기 구분 신경망을 학습하는 단계
    를 더 포함하는, 영상 분할을 위한 학습 방법.
  4. 제1항에 있어서,
    상기 제2 복제 레이어들을 학습하는 단계는
    상기 정규화된 제1 복제 레이어들이 상기 트레이닝 영상으로부터 추출한 특징에 기초하여 분할한 상기 트레이닝 영상의 레이블이 상기 트레이닝 영상에 대응하여 미리 정의된 레이블과 같아지도록 상기 제2 복제 레이어들을 학습하는 단계
    를 포함하는, 영상 분할을 위한 학습 방법.
  5. 제1항에 있어서,
    상기 트레이닝 영상 및 상기 트레이닝 영상에 대응하여 미리 정의된 레이블들에 기초하여, 기 학습된 신경망을 상기 제1 레이어들과 상기 제2 레이어들로 분리하는 단계
    를 더 포함하는, 영상 분할을 위한 학습 방법.
  6. 제1항에 있어서,
    상기 제1 레이어들을 복제함으로써, 상기 타겟 영상으로부터 상기 제2 특징을 추출하는 상기 제1 복제 레이어들을 생성하는 단계
    를 더 포함하는, 영상 분할을 위한 학습 방법.
  7. 제1항에 있어서,
    상기 제2 레이어들을 복제함으로써, 상기 타겟 영상으로부터 추출된 제2 특징에 기초하여 상기 타겟 영상을 의미 별로 분할하는 상기 제2 복제 레이어들을 생성하는 단계
    를 더 포함하는, 영상 분할을 위한 학습 방법.
  8. 제1항에 있어서,
    상기 정규화된 제1 복제 레이어들 및 상기 학습된 제2 복제 레이어들을 조합하는 단계; 및
    상기 조합된 신경망을 이용하여 상기 타겟 영상을 의미 별로 분할하는 단계
    를 더 포함하는, 영상 분할을 위한 학습 방법.
  9. 트레이닝 영상으로부터 추출된 특징과 타겟 영상으로부터 추출된 특징을 구분하는 구분 신경망을 학습하는 단계;
    상기 구분 신경망의 로스를 기초로, 기 학습된 신경망에 포함된 제1 레이어들- 상기 제1 레이어들은 상기 트레이닝 영상으로부터 제1 특징을 추출함-을 복제한 제1 복제 레이어들이 상기 타겟 영상으로부터 추출한 제2 특징과 상기 제1 레이어들이 상기 트레이닝 영상으로부터 추출한 제1 특징이 같아지도록 상기 제1 복제 레이어들을 학습하는 단계;
    상기 제1 복제 레이어들이 상기 트레이닝 영상으로부터 추출한 제3 특징과 상기 제1 특징 간의 유사도가 미리 설정된 기준을 벗어나지 않도록 상기 제1 복제 레이어들을 정규화하는 단계; 및
    상기 정규화된 제1 복제 레이어들에 대응하도록 상기 기 학습된 신경망에 포함된 제2 레이어들- 상기 제2 레이어들은 상기 제1 특징에 기초하여 상기 트레이닝 영상을 분할함- 을 복제한 제2 복제 레이어들을 학습하는 단계
    를 포함하는, 영상 분할을 위한 학습 방법.
  10. 제9항에 있어서,
    상기 제1 복제 레이어들을 학습하는 단계는
    상기 제1 특징과 상기 제2 특징 간의 차이에 대응하는 상기 로스를 기초로, 상기 제2 특징이 상기 제1 특징과 같아지도록 상기 제1 복제 레이어들을 학습하는 단계
    를 포함하는, 영상 분할을 위한 학습 방법.
  11. 제9항에 있어서,
    상기 제2 복제 레이어들을 학습하는 단계는
    상기 정규화된 제1 복제 레이어들이 상기 트레이닝 영상으로부터 추출한 특징에 기초하여 분할한 상기 트레이닝 영상의 레이블이 상기 트레이닝 영상에 대응하여 미리 정의된 레이블과 같아지도록 상기 제2 복제 레이어들을 학습하는 단계
    를 포함하는, 영상 분할을 위한 학습 방법.
  12. 타겟 영상을 획득하는 단계; 및
    상기 타겟 영상을, 상기 타겟 영상으로부터 특징을 추출하고, 상기 특징에 기초하여 상기 타겟 영상을 분할하도록 학습된 신경망에 인가함으로써, 상기 타겟 영상에 포함된 객체를 의미 단위로 분할한 세그먼테이션(segmentation) 영상을 생성하는 단계
    를 포함하는, 영상 분할 방법.
  13. 제12항에 있어서,
    상기 신경망은
    트레이닝 영상으로부터 제1 특징을 추출하는 제1 레이어들을 복제한 제1 복제 레이어들; 및
    상기 제1 특징에 기초하여 상기 트레이닝 영상을 분할하는 제2 레이어들을 복제한 제2 복제 레이어들
    을 포함하는, 영상 분할 방법.
  14. 제13항에 있어서,
    상기 제1 복제 레이어들은
    상기 제1 복제 레이어들이 상기 타겟 영상으로부터 추출한 제2 특징이 상기 제1 레이어들이 상기 트레이닝 영상으로부터 추출한 상기 제1 특징과 같아지도록 학습된 것인, 영상 분할 방법.
  15. 제14항에 있어서,
    상기 제1 복제 레이어들은
    상기 제1 특징과 상기 제2 특징 간의 차이에 대응하는 로스에 기초하여, 상기 제2 특징이 상기 제1 특징과 같아지도록 학습된 것인, 영상 분할 방법.
  16. 제13항에 있어서,
    상기 제1 복제 레이어들은
    상기 제1 복제 레이어들이 상기 트레이닝 영상으로부터 추출한 제3 특징과 상기 제1 레이어들이 상기 트레이닝 영상으로부터 추출한 제1 특징 간의 유사도가 미리 설정된 기준을 벗어나지 않도록 정규화된 것인, 영상 분할 방법.
  17. 제16항에 있어서,
    상기 제2 복제 레이어들은
    상기 정규화된 제1 복제 레이어들에 대응하여 상기 타겟 영상을 분할하도록 학습된 것인, 영상 분할 방법.
  18. 제16항에 있어서,
    상기 제2 복제 레이어들은
    상기 정규화된 제1 복제 레이어들이 상기 트레이닝 영상으로부터 추출한 특징에 기초하여 분할한 상기 트레이닝 영상의 레이블이 상기 트레이닝 영상에 대응하여 미리 정의된 레이블과 같아지도록 학습된 것인, 영상 분할 방법.
  19. 하드웨어와 결합되어 제1항 내지 제18항 중 어느 하나의 항의 방법을 실행시키기 위하여 컴퓨터로 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램.
  20. 타겟 영상을 획득하는 이미지 센서; 및
    상기 타겟 영상을, 상기 타겟 영상으로부터 특징을 추출하고, 상기 특징에 기초하여 상기 타겟 영상을 분할하도록 학습된 신경망에 인가함으로써, 상기 타겟 영상에 포함된 객체를 의미 단위로 분할한 세그먼테이션 영상을 생성하는 프로세서
    를 포함하는, 영상 분할 장치.
KR1020180034286A 2018-03-26 2018-03-26 영상 분할 방법, 영상 분할 장치, 및 영상 분할을 위한 학습 방법 KR102565278B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180034286A KR102565278B1 (ko) 2018-03-26 2018-03-26 영상 분할 방법, 영상 분할 장치, 및 영상 분할을 위한 학습 방법
US16/103,187 US10810745B2 (en) 2018-03-26 2018-08-14 Method and apparatus with image segmentation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180034286A KR102565278B1 (ko) 2018-03-26 2018-03-26 영상 분할 방법, 영상 분할 장치, 및 영상 분할을 위한 학습 방법

Publications (2)

Publication Number Publication Date
KR20190112378A KR20190112378A (ko) 2019-10-07
KR102565278B1 true KR102565278B1 (ko) 2023-08-09

Family

ID=67985413

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180034286A KR102565278B1 (ko) 2018-03-26 2018-03-26 영상 분할 방법, 영상 분할 장치, 및 영상 분할을 위한 학습 방법

Country Status (2)

Country Link
US (1) US10810745B2 (ko)
KR (1) KR102565278B1 (ko)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10628919B2 (en) * 2017-08-31 2020-04-21 Htc Corporation Image segmentation method and apparatus
US10956817B2 (en) * 2018-04-18 2021-03-23 Element Ai Inc. Unsupervised domain adaptation with similarity learning for images
US11663443B2 (en) * 2018-11-21 2023-05-30 International Business Machines Corporation Restructuring deep neural networks to reduce the number of parameters
US20210127090A1 (en) * 2019-10-28 2021-04-29 Micron Technology, Inc. Distributed neural network processing on an intelligent image sensor stack
KR102416924B1 (ko) 2020-01-28 2022-07-04 인하대학교 산학협력단 영상 영역 분할 방법, 영상 영역 분할 장치 및 영상 영역 분할 프로그램
KR102167808B1 (ko) * 2020-03-31 2020-10-20 한밭대학교 산학협력단 Ar에 적용 가능한 의미적인 분할 방법 및 시스템
CN111723813B (zh) * 2020-06-05 2021-07-06 中国科学院自动化研究所 基于类内判别器的弱监督图像语义分割方法、系统、装置
KR102308074B1 (ko) * 2020-06-05 2021-10-01 엘아이지넥스원 주식회사 미사일 유도명령 학습 방법
KR102308075B1 (ko) * 2020-06-05 2021-10-01 엘아이지넥스원 주식회사 미사일 유도명령 학습시스템
KR102175183B1 (ko) * 2020-06-09 2020-11-05 이창근 기업 데이터 통합 관리 방법, 장치, 및 시스템
CN112183325B (zh) * 2020-09-27 2021-04-06 哈尔滨市科佳通用机电股份有限公司 基于图像对比的公路车辆检测方法
CN112102411B (zh) * 2020-11-02 2021-02-12 中国人民解放军国防科技大学 一种基于语义误差图像的视觉定位方法及装置
CN113360696A (zh) * 2021-06-23 2021-09-07 北京百度网讯科技有限公司 图像配对方法、装置、设备以及存储介质
CN113255610B (zh) * 2021-07-02 2022-02-18 浙江大华技术股份有限公司 特征底库构建、特征检索方法以及相关装置
CN113723304A (zh) * 2021-08-31 2021-11-30 上海商汤临港智能科技有限公司 车灯检测方法、装置、电子设备及存储介质
KR102543077B1 (ko) * 2022-08-03 2023-06-13 가천대학교 산학협력단 안면이미지의 안면영역 분할 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180144209A1 (en) 2016-11-22 2018-05-24 Lunit Inc. Object recognition method and apparatus based on weakly supervised learning
US20190205606A1 (en) 2016-07-21 2019-07-04 Siemens Healthcare Gmbh Method and system for artificial intelligence based medical image segmentation

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010035163A1 (en) 2008-09-29 2010-04-01 Koninklijke Philips Electronics, N.V. Method for increasing the robustness of computer-aided diagnosis to image processing uncertainties
US9710729B2 (en) 2014-09-04 2017-07-18 Xerox Corporation Domain adaptation for image classification with class priors
JP2016057918A (ja) * 2014-09-10 2016-04-21 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US9536315B2 (en) 2015-01-13 2017-01-03 Xerox Corporation Annotation free license plate recognition method and system
US10169871B2 (en) * 2016-01-21 2019-01-01 Elekta, Inc. Systems and methods for segmentation of intra-patient medical images
US20170278135A1 (en) 2016-02-18 2017-09-28 Fitroom, Inc. Image recognition artificial intelligence system for ecommerce
GB2547712A (en) 2016-02-29 2017-08-30 Fujitsu Ltd Method and apparatus for generating time series data sets for predictive analysis
US10007866B2 (en) 2016-04-28 2018-06-26 Microsoft Technology Licensing, Llc Neural network image classifier
WO2017200597A1 (en) 2016-05-20 2017-11-23 Google Llc Progressive neural networks
US9971958B2 (en) 2016-06-01 2018-05-15 Mitsubishi Electric Research Laboratories, Inc. Method and system for generating multimodal digital images
US10346740B2 (en) 2016-06-01 2019-07-09 Kla-Tencor Corp. Systems and methods incorporating a neural network and a forward physical model for semiconductor applications

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190205606A1 (en) 2016-07-21 2019-07-04 Siemens Healthcare Gmbh Method and system for artificial intelligence based medical image segmentation
US20180144209A1 (en) 2016-11-22 2018-05-24 Lunit Inc. Object recognition method and apparatus based on weakly supervised learning

Also Published As

Publication number Publication date
US20190295261A1 (en) 2019-09-26
KR20190112378A (ko) 2019-10-07
US10810745B2 (en) 2020-10-20

Similar Documents

Publication Publication Date Title
KR102565278B1 (ko) 영상 분할 방법, 영상 분할 장치, 및 영상 분할을 위한 학습 방법
US11620527B2 (en) Domain adaption learning system
US10614310B2 (en) Behavior recognition
US10438068B2 (en) Adapting to appearance variations of a target object when tracking the target object in a video sequence
KR102565279B1 (ko) 객체 검출 방법, 객체 검출을 위한 학습 방법 및 그 장치들
US10346464B2 (en) Cross-modiality image matching method
US10860837B2 (en) Deep multi-task learning framework for face detection, landmark localization, pose estimation, and gender recognition
US11106903B1 (en) Object detection in image data
KR20200075344A (ko) 검출기, 객체 검출 방법, 학습기 및 도메인 변환을 위한 학습 방법
US20210110588A1 (en) Mobile application for object recognition, style transfer and image synthesis, and related systems, methods, and apparatuses
CN103971091B (zh) 飞机机号自动识别方法
KR102108951B1 (ko) 영상의 전역 문맥 정보를 활용하는 딥러닝 기반 물체 검출 방법 및 시스템
CN111492375A (zh) 用于辨识新对象的机器视觉系统
KR20230038086A (ko) 영상 데이터에 포함된 얼굴 및 신체 비식별화 방법 및 이를 수행하기 위한 장치
Wang et al. Occluded vehicle detection with local connected deep model
KR101817440B1 (ko) 다중 카메라를 통한 3차원 모델 기반 객체 인식 기법과 시스템
JP2019220174A (ja) 人工ニューラルネットワークを用いた画像処理
Vlachynska et al. Dogface detection and localization of dogface’s landmarks
Gunawan et al. Semantic segmentation of aerial imagery for road and building extraction with deep learning
KR102326185B1 (ko) 딥러닝을 이용한 얼굴 매칭 방법 및 장치
KR102127855B1 (ko) 검출 반복성을 최대화 하는 특징점 선별방법
KR102504862B1 (ko) 자율주행 자동차의 판단에 대한 근거 설명 모델
Ganesh Parking lot monitoring system using an autonomous quadrotor UAV
KR102224218B1 (ko) 비디오 시간 정보를 활용하는 딥러닝 기반 물체 검출 방법 및 장치
Utane et al. Hybrid Architecture for Traffic Light Recognition Using Deep CNN and Ensemble Machine Learning Model

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right