KR20200091792A - 하드웨어 최적화에 사용되는 이미지 인식을 위한 1x1 컨벌루션을 이용한 CNN 학습 방법 및 학습 장치, 이를 이용한 테스트 방법 및 테스트 장치 - Google Patents

하드웨어 최적화에 사용되는 이미지 인식을 위한 1x1 컨벌루션을 이용한 CNN 학습 방법 및 학습 장치, 이를 이용한 테스트 방법 및 테스트 장치 Download PDF

Info

Publication number
KR20200091792A
KR20200091792A KR1020190147084A KR20190147084A KR20200091792A KR 20200091792 A KR20200091792 A KR 20200091792A KR 1020190147084 A KR1020190147084 A KR 1020190147084A KR 20190147084 A KR20190147084 A KR 20190147084A KR 20200091792 A KR20200091792 A KR 20200091792A
Authority
KR
South Korea
Prior art keywords
feature map
roi
test
learning
layer
Prior art date
Application number
KR1020190147084A
Other languages
English (en)
Other versions
KR102338765B1 (ko
Inventor
김계현
김용중
김인수
김학경
남운현
부석훈
성명철
여동훈
유우주
장태웅
정경중
제홍모
조호진
Original Assignee
주식회사 스트라드비젼
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 스트라드비젼 filed Critical 주식회사 스트라드비젼
Publication of KR20200091792A publication Critical patent/KR20200091792A/ko
Application granted granted Critical
Publication of KR102338765B1 publication Critical patent/KR102338765B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06K9/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/759Region-based matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 KPI를 충족시키는 하드웨어 최적화에 사용되는 이미지 인식을 위한 CNN의 파라미터를 학습하는 방법에 있어서, (1) 제1 트랜스포징 레이어 또는 풀링 레이어로 하여금 풀링된 ROI 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 ROI 별로 컨캐터네이팅하여 통합 특징 맵을 생성하도록 하는 단계; (2) (i) 제2 트랜스포징 레이어로 하여금 통합 특징 맵으로부터 볼륨이 조정된 조정 특징 맵을 픽셀 별로 분리하도록 하고, 분류 레이어로 하여금 ROI 별 객체 정보를 생성하도록 하거나, (ii) 객체 로스를 백프로파게이션하는 단계를 포함하되, 본 발명에서는 동일한 프로세서가 컨벌루션 연산 및 FC 연산을 수행하기 때문에 칩(Chip)의 사이즈를 줄일 수 있어, 반도체 제작 과정 중 추가 라인을 설치할 필요가 없는 장점이 있다.

Description

하드웨어 최적화에 사용되는 이미지 인식을 위한 1x1 컨벌루션을 이용한 CNN 학습 방법 및 학습 장치, 이를 이용한 테스트 방법 및 테스트 장치{LEARNING METHOD AND LEARNING DEVICE FOR CONVOLUTIONAL NEURAL NETWORK USING 1x1 CONVOLUTION FOR IMAGE RECOGNITION TO BE USED FOR HARDWARE OPTIMIZATION, AND TESTING METHOD AND TESTING DEVICE USING THE SAME}
본 발명은 하드웨어 최적화에 사용되는 이미지 인식을 위한 CNN의 파라미터를 학습하는 방법에 관한 것으로, 보다 상세하게는, 이미지 인식을 위한 상기 CNN의 상기 파라미터를 학습하는 방법에 있어서, (a) 적어도 하나의 트레이닝 이미지가 입력되면, 학습 장치가, (i) 적어도 하나의 컨벌루션 레이어로 하여금 상기 트레이닝 이미지 상에서 ROI의 영역을 크롭(Crop)하고 리사이즈(Resize)하여 생성된 각각의 ROI 이미지에 대하여 컨벌루션 연산을 적어도 한 번 적용하여 적어도 하나의 객체에 대응되는 적어도 하나의 상기 ROI 별 ROI 특징 맵을 생성하도록 하고, (ii) (ii-1) 풀링 레이어로 하여금 상기 ROI 특징 맵에 대하여 풀링 연산을 적어도 한 번 적용하도록 하여 상기 ROI 별 풀링된 특징 맵을 생성하도록 하며, 제1 트랜스포징 레이어(Transposing Layer)로 하여금 상기 ROI 별 상기 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 상기 ROI 별로 컨캐터네이팅(Concatenating)하도록 하여 통합 특징 맵(Integrated Feature Map)을 생성하도록 하거나, (ii-2) 상기 풀링 레이어로 하여금 상기 ROI 특징 맵에 대하여 풀링 연산을 적용하도록 하여 상기 ROI 별 상기 풀링된 특징 맵을 생성하도록 하고, 상기 풀링 레이어로 하여금 상기 ROI 별 상기 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 상기 픽셀을 상기 ROI 별로 컨캐터네이팅하도록 하여 상기 통합 특징 맵을 생성하도록 하는 단계; (b) 상기 학습 장치가, 제1 1x1 컨벌루션 레이어로 하여금 상기 통합 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨(Volume)이 조정된 제1 조정 특징 맵(Adjusted Feature Map)을 생성하도록 하며, 제2 1x1 컨벌루션 레이어로 하여금 상기 제1 조정 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨이 조정된 제2 조정 특징 맵을 생성하도록 하는 단계; 및 (c) 상기 학습 장치가, (c1) (i) 제2 트랜스포징 레이어로 하여금 상기 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 ROI 별 픽셀별 특징 맵(Pixel-Wise Feature Map)을 생성하도록 하며, 분류 레이어(Classifying Layer)로 하여금 상기 ROI 별 상기 픽셀별 특징 맵을 이용하여 상기 ROI 각각에 대한 객체 정보를 생성하도록 하거나, (ii) 상기 분류 레이어로 하여금 상기 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 ROI 별 상기 픽셀별 특징 맵을 생성하도록 하고, 상기 분류 레이어로 하여금 상기 ROI 별 상기 픽셀별 특징 맵을 이용하여 상기 ROI 각각에 대한 상기 객체 정보를 생성하도록 한 후, (c2) 로스 레이어로 하여금 상기 객체 정보와 이에 대응되는 GT(Ground Truth)를 참조하여 적어도 하나의 객체 로스를 산출하도록 함으로써, 상기 객체 로스를 이용한 백프로파게이션을 통해 상기 제2 1x1 컨벌루션 레이어, 상기 제1 1x1 컨벌루션 레이어, 및 상기 컨벌루션 레이어 중 적어도 일부의 파라미터를 학습하도록 하는 단계;를 포함하는 것을 특징으로 하는 학습 방법 및 학습 장치 이를 이용하여 테스트하는 방법 및 테스트 장치에 관한 것이다.
딥 컨벌루션 뉴럴 네트워크(Deep Convolutional Neural Network; Deep CNN)는 딥 러닝 분야에서 일어난 놀라운 발전의 핵심이다. CNN은 글자 인식 문제를 풀기 위해 90년대에 이미 사용되었지만, 현재처럼 널리 쓰이게 된 것은 최근의 연구 결과 덕분이다. 이러한 딥 CNN은 2012년 ImageNet 이미지 분류 시합에서 다른 경쟁자들을 이기고 우승을 차지했다. 그리고 나서 컨벌루션 뉴럴 네트워크는 기계 학습(Machine Learning) 분야에서 매우 유용한 툴이 되었다.
그리고, CNN은 이미지에서 특징을 추출하는 특징 추출기(Feature Extractor) 및 이미지 내의 객체를 검출하거나 특징 추출기가 추출한 특징을 참조하여 이미지를 인식하는 특징 분류기(Feature Classifier)로 구성된다.
그리고 CNN의 특징 추출기는 컨벌루션 레이어로 구성되며, 특징 분류기는 특징 추출기가 추출한 특징에 대하여 FC 연산(Fully Connected Operation)을 적용할 수 있는 FC 레이어로 구성된다.
하지만, 이와 같은 FC 레이어는 입력된 모든 특징에 대하여 가중치를 생성하여야 하는 불편함이 있으며, 입력된 모든 특징에 대하여 FC 연산을 수행하여야 하므로 컴퓨팅 연산량이 많은 단점이 있다.
또한, FC 레이어에서는 FC 레이어에 입력되는 이미지의 사이즈가 FC 레이어 모델의 소정 사이즈와 일치하여야 한다. 그러므로, 이러한 FC 레이어를 포함하는 CNN에 미리 설정된 사이즈와 다른 트레이닝 이미지 또는 테스트 이미지가 입력될 경우, 컨벌루션 레이어가 트레이닝 이미지나 테스트 이미지에 대하여 해당 연산을 적용할 수 있지만, FC 레이어에서는 상기 소정 사이즈와 다른 사이즈의 입력 이미지가 입력되므로 트레이닝 이미지나 테스트 이미지에 해당 연산을 적용할 수 없다.
따라서, 본 발명의 발명자는 상기와 같은 FC 레이어의 문제점을 극복할 수 있도록 하는 이미지 인식을 위한 CNN을 제안하고자 한다.
본 발명은 상술한 문제점을 모두 해결하는 것을 그 목적으로 한다.
본 발명은 입력 이미지의 사이즈와 관계없이 적어도 하나의 입력 이미지 내에 위치하는 객체를 인식할 수 있도록 하는 이미지 인식을 위한 CNN을 제공하는 것을 다른 목적으로 한다.
본 발명은 특징 분류를 위한 가중치의 개수를 최소화할 수 있도록 하는 이미지 인식을 위한 CNN을 제공하는 것을 또 다른 목적으로 한다.
본 발명은 특징 분류를 위한 컴퓨팅 연산량을 감소시킬 수 있도록 하는 이미지 인식을 위한 CNN을 제공하는 것을 또 다른 목적으로 한다.
상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한, 본 발명의 특징적인 구성은 하기와 같다.
본 발명의 일 태양에 따르면, 이미지 인식을 위한 CNN의 파라미터를 학습하는 방법에 있어서, (a) 적어도 하나의 트레이닝 이미지가 입력되면, 학습 장치가, (i) 적어도 하나의 컨벌루션 레이어로 하여금 상기 트레이닝 이미지 상에서 ROI의 영역을 크롭(Crop)하고 리사이즈(Resize)하여 생성된 각각의 ROI 이미지에 대하여 컨벌루션 연산을 적어도 한 번 적용하여 적어도 하나의 객체에 대응되는 적어도 하나의 상기 ROI 별 ROI 특징 맵을 생성하도록 하고, (ii) (ii-1) 풀링 레이어로 하여금 상기 ROI 특징 맵에 대하여 풀링 연산을 적어도 한 번 적용하도록 하여 상기 ROI 별 풀링된 특징 맵을 생성하도록 하며, 제1 트랜스포징 레이어(Transposing Layer)로 하여금 상기 ROI 별 상기 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 상기 ROI 별로 컨캐터네이팅(Concatenating)하도록 하여 통합 특징 맵(Integrated Feature Map)을 생성하도록 하거나, (ii-2) 상기 풀링 레이어로 하여금 상기 ROI 특징 맵에 대하여 풀링 연산을 적용하도록 하여 상기 ROI 별 상기 풀링된 특징 맵을 생성하도록 하고, 상기 풀링 레이어로 하여금 상기 ROI 별 상기 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 상기 픽셀을 상기 ROI 별로 컨캐터네이팅하도록 하여 상기 통합 특징 맵을 생성하도록 하는 단계; (b) 상기 학습 장치가, 제1 1x1 컨벌루션 레이어로 하여금 상기 통합 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨(Volume)이 조정된 제1 조정 특징 맵(Adjusted Feature Map)을 생성하도록 하며, 제2 1x1 컨벌루션 레이어로 하여금 상기 제1 조정 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨이 조정된 제2 조정 특징 맵을 생성하도록 하는 단계; 및 (c) 상기 학습 장치가, (c1) (i) 제2 트랜스포징 레이어로 하여금 상기 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 ROI 별 픽셀별 특징 맵(Pixel-Wise Feature Map)을 생성하도록 하며, 분류 레이어(Classifying Layer)로 하여금 상기 ROI 별 상기 픽셀별 특징 맵을 이용하여 상기 ROI 각각에 대한 객체 정보를 생성하도록 하거나, (ii) 상기 분류 레이어로 하여금 상기 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 ROI 별 상기 픽셀별 특징 맵을 생성하도록 하고, 상기 분류 레이어로 하여금 상기 ROI 별 상기 픽셀별 특징 맵을 이용하여 상기 ROI 각각에 대한 상기 객체 정보를 생성하도록 한 후, (c2) 로스 레이어로 하여금 상기 객체 정보와 이에 대응되는 GT(Ground Truth)를 참조하여 적어도 하나의 객체 로스를 산출하도록 함으로써, 상기 객체 로스를 이용한 백프로파게이션을 통해 상기 제2 1x1 컨벌루션 레이어, 상기 제1 1x1 컨벌루션 레이어, 및 상기 컨벌루션 레이어 중 적어도 일부의 파라미터를 학습하도록 하는 단계;를 포함하는 것을 특징으로 한다.
일 실시예에서, 상기 ROI의 개수를 N이라 하며, 상기 ROI 별 상기 풀링된 특징 맵의 너비를 M1, 높이를 M2라 하고, 상기 ROI 별 상기 풀링된 특징 맵의 채널 개수를 J라 할 경우, 상기 (a) 단계에서, 상기 학습 장치는, (i) 상기 제1 트랜스포징 레이어로 하여금 상기 ROI 별 상기 풀링된 특징 맵을 너비 1, 높이 N, 채널 M1xM2xJ인 상기 통합 특징 맵으로 변환시키도록 하거나, (ii) 상기 풀링 레이어로 하여금 상기 ROI 별 상기 풀링된 특징 맵을 너비 1, 높이 N, 채널 M1xM2xJ인 상기 통합 특징 맵으로 변환시키도록 하는 것을 특징으로 한다.
일 실시예에서, 상기 제1 1x1 컨벌루션 레이어의 필터의 개수를 K라 하고, 상기 제2 1x1 컨벌루션 레이어의 필터의 개수를 L이라 할 경우, 상기 (b) 단계에서, 상기 학습 장치는, 상기 제1 1x1 컨벌루션 레이어로 하여금 너비 N, 높이 1, 채널 K인 Nx1xK의 볼륨을 가지는 상기 제1 조정 특징 맵을 생성하도록 하며, 상기 제2 1x1 컨벌루션 레이어로 하여금 너비 N, 높이 1, 채널 L인 Nx1xL의 볼륨을 가지는 상기 제2 조정 특징 맵을 생성하도록 하는 것을 특징으로 한다.
일 실시예에서, 상기 (c) 단계에서, 상기 학습 장치는, (i) 상기 제2 트랜스포징 레이어로 하여금 상기 제2 조정 특징 맵을, N개의 ROI 각각에 대응하는 너비 1, 높이 1, 채널 L인 1x1xL의 볼륨을 가지는 상기 ROI 별 상기 픽셀별 특징 맵으로 변환하도록 하거나, (ii) 상기 분류 레이어로 하여금 상기 제2 조정 특징 맵을, 상기 N개의 ROI 각각에 대응하는 너비 1, 높이 1, 채널 L인 1x1xL의 볼륨을 가지는 상기 ROI 별 상기 픽셀별 특징 맵으로 변환하도록 하는 것을 특징으로 한다.
일 실시예에서, 상기 분류 레이어는 적어도 하나의 소프트맥스(Softmax) 알고리즘을 사용하는 것을 특징으로 한다.
본 발명의 다른 태양에 따르면, 이미지 인식을 위한 CNN을 테스트하는 방법에 있어서, (a) 학습 장치가, (1) (i) 적어도 하나의 컨벌루션 레이어로 하여금 적어도 하나의 트레이닝 이미지 상에서 학습용 ROI의 영역을 크롭(Crop)하고 리사이즈(Resize)하여 생성된 각각의 학습용 ROI 이미지에 대하여 컨벌루션 연산을 적어도 한 번 적용하여 적어도 하나의 학습용 객체에 대응되는 적어도 하나의 상기 학습용 ROI 별 학습용 ROI 특징 맵을 생성하도록 하고, (ii) (ii-1) 풀링 레이어로 하여금 상기 학습용 ROI 특징 맵에 대하여 풀링 연산을 적어도 한 번 적용하도록 하여 상기 학습용 ROI 별 학습용 풀링된 특징 맵을 생성하도록 하며, 제1 트랜스포징 레이어(Transposing Layer)로 하여금 상기 학습용 ROI 별 상기 학습용 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 상기 학습용 ROI 별로 컨캐터네이팅(Concatenating) 하도록 하여 학습용 통합 특징 맵(Integrated Feature Map)을 생성하도록 하거나, (ii-2) 상기 풀링 레이어로 하여금 상기 학습용 ROI 특징 맵에 대하여 풀링 연산을 적용하도록 하여 상기 학습용 ROI 별 상기 학습용 풀링된 특징 맵을 생성하도록 하고, 상기 풀링 레이어로 하여금 상기 학습용 ROI 별 상기 학습용 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 상기 픽셀을 상기 학습용 ROI 별로 컨캐터네이팅하도록 하여 상기 학습용 통합 특징 맵을 생성하도록 하며, (2) 제1 1x1 컨벌루션 레이어로 하여금 상기 학습용 통합 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨(Volume)이 조정된 학습용 제1 조정 특징 맵(Adjusted Feature Map)을 생성하도록 하며, 제2 1x1 컨벌루션 레이어로 하여금 상기 학습용 제1 조정 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨이 조정된 학습용 제2 조정 특징 맵을 생성하도록 하며, (3) (3-1) (i) 제2 트랜스포징 레이어로 하여금 상기 학습용 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 학습용 ROI 별 학습용 픽셀별 특징 맵(Pixel-Wise Feature Map)을 생성하도록 하며, 분류 레이어(Classifying Layer)로 하여금 상기 학습용 ROI 별 상기 학습용 픽셀별 특징 맵을 이용하여 상기 학습용 ROI 각각에 대한 학습용 객체 정보를 생성하도록 하거나, (ii) 상기 분류 레이어로 하여금 상기 학습용 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 학습용 ROI 별 상기 학습용 픽셀별 특징 맵을 생성하도록 하고, 상기 분류 레이어로 하여금 상기 학습용 ROI 별 상기 학습용 픽셀별 특징 맵을 이용하여 상기 학습용 ROI 각각에 대한 상기 학습용 객체 정보를 생성하도록 한 후, (3-2) 로스 레이어로 하여금 상기 학습용 객체 정보와 이에 대응되는 GT(Ground Truth)를 참조하여 적어도 하나의 객체 로스를 산출하도록 함으로써, 상기 객체 로스를 이용한 백프로파게이션을 통해 상기 제2 1x1 컨벌루션 레이어, 상기 제1 1x1 컨벌루션 레이어, 및 상기 컨벌루션 레이어 중 적어도 일부의 파라미터를 학습한 상태에서, 적어도 하나의 테스트 이미지가 입력되면, 테스트 장치가, (i) 상기 컨벌루션 레이어로 하여금 상기 테스트 이미지 상에서 테스트용 ROI의 영역을 크롭(Crop)하고 리사이즈(Resize)하여 생성된 각각의 테스트용 ROI 이미지에 대하여 컨벌루션 연산을 적어도 한 번 적용하여 적어도 하나의 테스트용 객체에 대응되는 적어도 하나의 상기 테스트용 ROI 별 테스트용 ROI 특징 맵을 생성하도록 하고, (ii) (ii-1) 상기 풀링 레이어로 하여금 상기 테스트용 ROI 특징 맵에 대하여 풀링 연산을 적어도 한 번 적용하도록 하여 상기 테스트용 ROI 별 테스트용 풀링된 특징 맵을 생성하도록 하며, 상기 제1 트랜스포징 레이어(Transposing Layer)로 하여금 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 상기 테스트용 ROI 별로 컨캐터네이팅(Concatenating)하도록 하여 테스트용 통합 특징 맵(Integrated Feature Map)을 생성하도록 하거나, (ii-2) 상기 풀링 레이어로 하여금 상기 테스트용 ROI 특징 맵에 대하여 풀링 연산을 적용하도록 하여 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵을 생성하도록 하고, 상기 풀링 레이어로 하여금 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 상기 픽셀을 상기 테스트용 ROI 별로 컨캐터네이팅하도록 하여 상기 테스트용 통합 특징 맵을 생성하도록 하는 단계; (b) 상기 테스트 장치가, 상기 제1 1x1 컨벌루션 레이어로 하여금 상기 테스트용 통합 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨(Volume)이 조정된 테스트용 제1 조정 특징 맵(Adjusted Feature Map)을 생성하도록 하며, 상기 제2 1x1 컨벌루션 레이어로 하여금 상기 테스트용 제1 조정 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨이 조정된 테스트용 제2 조정 특징 맵을 생성하도록 하는 단계; 및 (c) 상기 테스트 장치가, (i) 상기 제2 트랜스포징 레이어로 하여금 상기 테스트용 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 테스트용 ROI 별 테스트용 픽셀별 특징 맵(Pixel-Wise Feature Map)을 생성하도록 하며, 상기 분류 레이어로 하여금 상기 테스트용 ROI 별 상기 테스트용 픽셀별 특징 맵을 이용하여 상기 테스트용 ROI 각각에 대한 테스트용 객체 정보를 생성하도록 하거나, (ii) 상기 분류 레이어로 하여금 상기 테스트용 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 테스트용 ROI 별 상기 테스트용 픽셀별 특징 맵을 생성하도록 하고, 상기 분류 레이어로 하여금 상기 테스트용 ROI 별 상기 테스트용 픽셀별 특징 맵을 이용하여 상기 테스트용 ROI 각각에 대한 상기 테스트용 객체 정보를 생성하도록 하는 단계;를 포함하는 것을 특징으로 한다.
일 실시예에서, 상기 테스트용 ROI의 개수를 N이라 하며, 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵의 너비를 M1, 높이를 M2라 하고, 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵의 채널 개수를 J라 할 경우, 상기 (a) 단계에서, 상기 테스트 장치는, (i) 상기 제1 트랜스포징 레이어로 하여금 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵을 너비 1, 높이 N, 채널 M1xM2xJ인 상기 테스트용 통합 특징 맵으로 변환시키도록 하거나, (ii) 상기 풀링 레이어로 하여금 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵을 너비 1, 높이 N, 채널 M1xM2xJ인 상기 테스트용 통합 특징 맵으로 변환시키도록 하는 것을 특징으로 한다.
일 실시예에서, 상기 제1 1x1 컨벌루션 레이어의 필터의 개수를 K라 하고, 상기 제2 1x1 컨벌루션 레이어의 필터의 개수를 L이라 할 경우, 상기 (b) 단계에서, 상기 테스트 장치는, 상기 제1 1x1 컨벌루션 레이어로 하여금 너비 N, 높이 1, 채널 K인 Nx1xK의 볼륨을 가지는 상기 테스트용 제1 조정 특징 맵을 생성하도록 하며, 상기 제2 1x1 컨벌루션 레이어로 하여금 너비 N, 높이 1, 채널 L인 Nx1xL의 볼륨을 가지는 상기 테스트용 제2 조정 특징 맵을 생성하도록 하는 것을 특징으로 한다.
일 실시예에서, 상기 (c) 단계에서, 상기 테스트 장치는, (i) 상기 제2 트랜스포징 레이어로 하여금 상기 테스트용 제2 조정 특징 맵을, N개의 테스트용 ROI 각각에 대응하는 너비 1, 높이 1, 채널 L인 1x1xL의 볼륨을 가지는 상기 테스트용 ROI 별 상기 테스트용 픽셀별 특징 맵으로 변환하도록 하거나, (ii) 상기 분류 레이어로 하여금 상기 테스트용 제2 조정 특징 맵을, 상기 N개의 테스트용 ROI 각각에 대응하는 너비 1, 높이 1, 채널 L인 1x1xL의 볼륨을 가지는 상기 테스트용 ROI 별 상기 테스트용 픽셀별 특징 맵으로 변환하도록 하는 것을 특징으로 한다.
일 실시예에서, 상기 분류 레이어는 적어도 하나의 소프트맥스(Softmax) 알고리즘을 사용하는 것을 특징으로 한다.
본 발명의 또 다른 태양에 따르면, 이미지 인식을 위한 CNN의 파라미터를 학습하는 학습 장치에 있어서, 인스트럭션을 저장하는 적어도 하나의 메모리; 및 (I) (i) 적어도 하나의 컨벌루션 레이어로 하여금 적어도 하나의 트레이닝 이미지 상에서 ROI의 영역을 크롭(Crop)하고 리사이즈(Resize)하여 생성된 각각의 ROI 이미지에 대하여 컨벌루션 연산을 적어도 한 번 적용하여 적어도 하나의 객체에 대응되는 적어도 하나의 상기 ROI 별 ROI 특징 맵을 생성하도록 하고, (ii) (ii-1) 풀링 레이어로 하여금 상기 ROI 특징 맵에 대하여 풀링 연산을 적어도 한 번 적용하도록 하여 상기 ROI 별 풀링된 특징 맵을 생성하도록 하며, 제1 트랜스포징 레이어(Transposing Layer)로 하여금 상기 ROI 별 상기 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 상기 ROI 별로 컨캐터네이팅(Concatenating)하도록 하여 통합 특징 맵(Integrated Feature Map)을 생성하도록 하거나, (ii-2) 상기 풀링 레이어로 하여금 상기 ROI 특징 맵에 대하여 풀링 연산을 적용하도록 하여 상기 ROI 별 상기 풀링된 특징 맵을 생성하도록 하고, 상기 풀링 레이어로 하여금 상기 ROI 별 상기 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 상기 픽셀을 상기 ROI 별로 컨캐터네이팅하도록 하여 상기 통합 특징 맵을 생성하도록 하는 프로세스, (II) 제1 1x1 컨벌루션 레이어로 하여금 상기 통합 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨(Volume)이 조정된 제1 조정 특징 맵(Adjusted Feature Map)을 생성하도록 하며, 제2 1x1 컨벌루션 레이어로 하여금 상기 제1 조정 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨이 조정된 제2 조정 특징 맵을 생성하도록 하는 프로세스, 및 (III) (III-1) (i) 제2 트랜스포징 레이어로 하여금 상기 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 ROI 별 픽셀별 특징 맵(Pixel-Wise Feature Map)을 생성하도록 하며, 분류 레이어(Classifying Layer)로 하여금 상기 ROI 별 상기 픽셀별 특징 맵을 이용하여 상기 ROI 각각에 대한 객체 정보를 생성하도록 하거나, (ii) 상기 분류 레이어로 하여금 상기 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 ROI 별 상기 픽셀별 특징 맵을 생성하도록 하고, 상기 분류 레이어로 하여금 상기 ROI 별 상기 픽셀별 특징 맵을 이용하여 상기 ROI 각각에 대한 상기 객체 정보를 생성하도록 한 후, (III-2) 로스 레이어로 하여금 상기 객체 정보와 이에 대응되는 GT(Ground Truth)를 참조하여 적어도 하나의 객체 로스를 산출하도록 함으로써, 상기 객체 로스를 백프로파게이션하여 상기 제2 1x1 컨벌루션 레이어, 상기 제1 1x1 컨벌루션 레이어, 및 상기 컨벌루션 레이어 중 적어도 일부의 파라미터를 학습하도록 하는 프로세스를 수행하기 위한 상기 인스트럭션을 실행하도록 구성된 적어도 하나의 프로세서;를 포함하는 것을 특징으로 한다.
일 실시예에서, 상기 ROI의 개수를 N이라 하며, 상기 ROI 별 상기 풀링된 특징 맵의 너비를 M1, 높이를 M2라 하고, 상기 ROI 별 상기 풀링된 특징 맵의 채널 개수를 J라 할 경우, 상기 (I) 프로세스에서, 상기 프로세서는, (i) 상기 제1 트랜스포징 레이어로 하여금 상기 ROI 별 상기 풀링된 특징 맵을 너비 1, 높이 N, 채널 M1xM2xJ인 상기 통합 특징 맵으로 변환시키도록 하거나, (ii) 상기 풀링 레이어로 하여금 상기 ROI 별 상기 풀링된 특징 맵을 너비 1, 높이 N, 채널 M1xM2xJ인 상기 통합 특징 맵으로 변환시키도록 하는 것을 특징으로 한다.
일 실시예에서, 상기 제1 1x1 컨벌루션 레이어의 필터의 개수를 K라 하고, 상기 제2 1x1 컨벌루션 레이어의 필터의 개수를 L이라 할 경우, 상기 (II) 프로세스에서, 상기 프로세서는, 상기 제1 1x1 컨벌루션 레이어로 하여금 너비 N, 높이 1, 채널 K인 Nx1xK의 볼륨을 가지는 상기 제1 조정 특징 맵을 생성하도록 하며, 상기 제2 1x1 컨벌루션 레이어로 하여금 너비 N, 높이 1, 채널 L인 Nx1xL의 볼륨을 가지는 상기 제2 조정 특징 맵을 생성하도록 하는 것을 특징으로 한다.
일 실시예에서, 상기 (III) 프로세스에서, 상기 프로세서는, (i) 상기 제2 트랜스포징 레이어로 하여금 상기 제2 조정 특징 맵을, N개의 ROI 각각에 대응하는 너비 1, 높이 1, 채널 L인 1x1Xl의 볼륨을 가지는 상기 ROI 별 상기 픽셀별 특징 맵으로 변환하도록 하거나, (ii) 상기 분류 레이어로 하여금 상기 제2 조정 특징 맵을, 상기 N개의 ROI 각각에 대응하는 너비 1, 높이 1, 채널 L인 1x1xL의 볼륨을 가지는 상기 ROI 별 상기 픽셀별 특징 맵으로 변환하도록 하는 것을 특징으로 한다.
일 실시예에서, 상기 분류 레이어는 적어도 하나의 소프트맥스(Softmax) 알고리즘을 사용하는 것을 특징으로 한다.
본 발명의 또 다른 태양에 따르면, 이미지 인식을 위한 CNN을 테스트하는 테스트 장치에 있어서, 인스트럭션을 저장하는 적어도 하나의 메모리; 및 학습 장치가, (1) (i) 적어도 하나의 컨벌루션 레이어로 하여금 적어도 하나의 트레이닝 이미지 상에서 학습용 ROI의 영역을 크롭(Crop)하고 리사이즈(Resize)하여 생성된 각각의 학습용 ROI 이미지에 대하여 컨벌루션 연산을 적어도 한 번 적용하여 적어도 하나의 학습용 객체에 대응되는 적어도 하나의 상기 학습용 ROI 별 학습용 ROI 특징 맵을 생성하도록 하고, (ii) (ii-1) 풀링 레이어로 하여금 상기 학습용 ROI 특징 맵에 대하여 풀링 연산을 적어도 한 번 적용하도록 하여 상기 학습용 ROI 별 학습용 풀링된 특징 맵을 생성하도록 하며, 제1 트랜스포징 레이어(Transposing Layer)로 하여금 상기 학습용 ROI 별 상기 학습용 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 상기 학습용 ROI 별로 컨캐터네이팅(Concatenating) 하도록 하여 학습용 통합 특징 맵(Integrated Feature Map)을 생성하도록 하거나, (ii-2) 상기 풀링 레이어로 하여금 상기 학습용 ROI 특징 맵에 대하여 풀링 연산을 적용하도록 하여 상기 학습용 ROI 별 상기 학습용 풀링된 특징 맵을 생성하도록 하고, 상기 풀링 레이어로 하여금 상기 학습용 ROI 별 상기 학습용 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 상기 픽셀 각각을 상기 학습용 ROI 별로 컨캐터네이팅하도록 하여 상기 학습용 통합 특징 맵을 생성하도록 하며, (2) 제1 1x1 컨벌루션 레이어로 하여금 상기 학습용 통합 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨(Volume)이 조정된 학습용 제1 조정 특징 맵(Adjusted Feature Map)을 생성하도록 하며, 제2 1x1 컨벌루션 레이어로 하여금 상기 학습용 제1 조정 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨이 조정된 학습용 제2 조정 특징 맵을 생성하도록 하며, (3) (3-1) (i) 제2 트랜스포징 레이어로 하여금 상기 학습용 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 학습용 ROI 별 학습용 픽셀별 특징 맵(Pixel-Wise Feature Map)을 생성하도록 하며, 분류 레이어(Classifying Layer)로 하여금 상기 학습용 ROI 별 상기 학습용 픽셀별 특징 맵을 이용하여 상기 학습용 ROI 각각에 대한 학습용 객체 정보를 생성하도록 하거나, (ii) 상기 분류 레이어로 하여금 상기 학습용 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 학습용 ROI 별 상기 학습용 픽셀별 특징 맵을 생성하도록 하고, 상기 분류 레이어로 하여금 상기 학습용 ROI 별 상기 학습용 픽셀별 특징 맵을 이용하여 상기 학습용 ROI 각각에 대한 상기 학습용 객체 정보를 생성하도록 한 후, (3-2) 로스 레이어로 하여금 상기 학습용 객체 정보와 이에 대응되는 GT(Ground Truth)를 참조하여 적어도 하나의 객체 로스를 산출하도록 함으로써, 상기 객체 로스를 백프로파게이션하여 상기 제2 1x1 컨벌루션 레이어, 상기 제1 1x1 컨벌루션 레이어, 및 상기 컨벌루션 레이어 중 적어도 일부의 파라미터를 학습한 상태에서, (I) (i) 상기 컨벌루션 레이어로 하여금 적어도 하나의 테스트 이미지 상에서 테스트용 ROI의 영역을 크롭(Crop)하고 리사이즈(Resize)하여 생성된 각각의 테스트용 ROI 이미지에 대하여 컨벌루션 연산을 적어도 한 번 적용하여 적어도 하나의 테스트용 객체에 대응되는 적어도 하나의 상기 테스트용 ROI 별 테스트용 ROI 특징 맵을 생성하도록 하고, (ii) (ii-1) 상기 풀링 레이어로 하여금 상기 테스트용 ROI 특징 맵에 대하여 풀링 연산을 적어도 한 번 적용하도록 하여 상기 테스트용 ROI 별 테스트용 풀링된 특징 맵을 생성하도록 하며, 상기 제1 트랜스포징 레이어(Transposing Layer)로 하여금 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 상기 테스트용 ROI 별로 컨캐터네이팅(Concatenating)하도록 하여 테스트용 통합 특징 맵(Integrated Feature Map)을 생성하도록 하거나, (ii-2) 상기 풀링 레이어로 하여금 상기 테스트용 ROI 특징 맵에 대하여 풀링 연산을 적용하도록 하여 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵을 생성하도록 하고, 상기 풀링 레이어로 하여금 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 상기 픽셀을 상기 테스트용 ROI 별로 컨캐터네이팅하도록 하여 상기 테스트용 통합 특징 맵을 생성하도록 하는 프로세스, (II) 상기 제1 1x1 컨벌루션 레이어로 하여금 상기 테스트용 통합 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨(Volume)이 조정된 테스트용 제1 조정 특징 맵(Adjusted Feature Map)을 생성하도록 하며, 상기 제2 1x1 컨벌루션 레이어로 하여금 상기 테스트용 제1 조정 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨이 조정된 테스트용 제2 조정 특징 맵을 생성하도록 하는 프로세스, 및 (III) (i) 상기 제2 트랜스포징 레이어로 하여금 상기 테스트용 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 테스트용 ROI 별 테스트용 픽셀별 특징 맵(Pixel-Wise Feature Map)을 생성하도록 하며, 상기 분류 레이어로 하여금 상기 테스트용 ROI 별 상기 테스트용 픽셀별 특징 맵을 이용하여 상기 테스트용 ROI 각각에 대한 테스트용 객체 정보를 생성하도록 하거나, (ii) 상기 분류 레이어로 하여금 상기 테스트용 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 테스트용 ROI 별 상기 테스트용 픽셀별 특징 맵을 생성하도록 하고, 상기 분류 레이어로 하여금 상기 테스트용 ROI 별 상기 테스트용 픽셀별 특징 맵을 이용하여 상기 테스트용 ROI 각각에 대한 상기 테스트용 객체 정보를 생성하도록 하는 프로세스를 수행하기 위한 상기 인스트럭션을 실행하도록 구성된 적어도 하나의 프로세서;를 포함하는 것을 특징으로 한다.
일 실시예에서, 상기 테스트용 ROI의 개수를 N이라 하며, 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵의 너비를 M1, 높이를 M2라 하고, 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵의 채널 개수를 J라 할 경우, 상기 (I) 프로세스에서, 상기 프로세서는, (i) 상기 제1 트랜스포징 레이어로 하여금 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵을 너비 1, 높이 N, 채널 M1xM2xJ인 상기 테스트용 통합 특징 맵으로 변환시키도록 하거나, (ii) 상기 풀링 레이어로 하여금 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵을 너비 1, 높이 N, 채널 M1xM2xJ인 상기 테스트용 통합 특징 맵으로 변환시키도록 하는 것을 특징으로 한다.
일 실시예에서, 상기 제1 1x1 컨벌루션 레이어의 필터의 개수를 K라 하고, 상기 제2 1x1 컨벌루션 레이어의 필터의 개수를 L이라 할 경우, 상기 (II) 프로세스에서, 상기 프로세서는, 상기 제1 1x1 컨벌루션 레이어로 하여금 너비 N, 높이 1, 채널 K인 Nx1xK의 볼륨을 가지는 상기 테스트용 제1 조정 특징 맵을 생성하도록 하며, 상기 제2 1x1 컨벌루션 레이어로 하여금 너비 N, 높이 1, 채널 L인 Nx1xL의 볼륨을 가지는 상기 테스트용 제2 조정 특징 맵을 생성하도록 하는 것을 특징으로 한다.
일 실시예에서, 상기 (III) 프로세스에서, 상기 프로세서는, (i) 상기 제2 트랜스포징 레이어로 하여금 상기 테스트용 제2 조정 특징 맵을, N개의 테스트용 ROI 각각에 대응하는 너비 1, 높이 1, 채널 L인 1x1xL의 볼륨을 가지는 상기 테스트용 ROI 별 상기 테스트용 픽셀별 특징 맵으로 변환하도록 하거나, (ii) 상기 분류 레이어로 하여금 상기 테스트용 제2 조정 특징 맵을, 상기 N개의 테스트용 ROI 각각에 대응하는 너비 1, 높이 1, 채널 L인 1x1xL의 볼륨을 가지는 상기 테스트용 ROI 별 상기 테스트용 픽셀별 특징 맵으로 변환하도록 하는 것을 특징으로 한다.
일 실시예에서, 상기 분류 레이어는 적어도 하나의 소프트맥스(Softmax) 알고리즘을 사용하는 것을 특징으로 한다.
이 외에도, 본 발명의 방법을 실행하기 위한 컴퓨터 프로그램을 기록하기 위한 컴퓨터 판독 가능한 기록 매체가 더 제공된다.
본 발명은 컨벌루션 레이어로만 이미지 인식을 위한 CNN을 구현함으로써 입력 이미지의 사이즈와 관계없이 입력 이미지 내에 위치하는 객체를 인식할 수 있는 효과가 있다.
또한, 본 발명은 컨벌루션 레이어로만 이미지 인식을 위한 CNN을 구현함으로써 종래 FC 레이어를 이용하는 경우에 비하여 특징 분류를 위한 가중치의 개수를 최소화할 수 있는 다른 효과가 있다.
또한, 본 발명은 컨벌루션 레이어로만 이미지 인식을 위한 CNN을 구현함으로써 종래 FC 레이어를 이용하는 경우에 비하여 특징 분류를 위한 컴퓨팅 연산량을 감소시킬 수 있는 또 다른 효과가 있다.
본 발명의 실시예의 설명에 이용되기 위하여 첨부된 아래 도면들은 본 발명의 실시예들 중 단지 일부일 뿐이며, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자(이하 "통상의 기술자")에게 있어서는 발명적 작업이 이루어짐 없이 이 도면들에 기초하여 다른 도면들이 얻어질 수 있다.
도 1은 본 발명의 일 실시예에 따른 이미지 인식을 위한 CNN을 학습하는 학습 장치를 개략적으로 도시한 것이고,
도 2는 본 발명의 일 실시예에 따른 이미지 인식을 위한 CNN을 학습하는 방법을 개략적으로 도시한 것이고,
도 3은 본 발명의 일 실시예에 따른 이미지 인식을 위한 CNN을 학습하는 데에 사용되며, 풀링 레이어로 하여금 풀링 연산을 적어도 한 번 수행하여 생성된 ROI 별 풀링된 특징 맵을 개략적으로 도시한 것이고,
도 4는 본 발명의 일 실시예에 따른 이미지 인식을 위한 CNN을 학습하는 데에 사용되며, ROI 별 풀링된 특징 맵을 사용하여 생성된 통합 특징 맵을 개략적으로 도시한 것이고,
도 5a와 도 5b는 각각 본 발명의 일 실시예에 따른 (i) 제1 1x1 컨벌루션 레이어로 하여금 통합 특징 맵에 대하여 컨벌루션 연산을 적어도 한 번 적용하도록 하여 생성된 제1 조정 특징 맵과, (ii) 제2 1x1컨벌루션 레이어으로 하여금 제1 조정 특징 맵에 대하여 컨벌루션 연산을 적용하도록 하여 생성된 제2 조정 특징 맵을 개략적으로 도시한 것이고,
도 6은 본 발명의 일 실시예에 따른 이미지 인식을 위한 CNN을 학습하는 데에 사용되며, 제2 조정 특징 맵을 이용하여 생성된 ROI 별 픽셀별 특징 맵(Pixel-Wise Feature Map)을 개략적으로 도시한 것이고,
도 7은 본 발명의 일 실시예에 따른 이미지 인식을 위한 CNN을 테스트하는 테스트 장치를 개략적으로 도시한 것이고,
도 8은 본 발명의 일 실시예에 따른 이미지 인식을 위한 CNN을 테스트하는 방법을 개략적으로 도시한 것이다
후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.
또한, 본 발명의 상세한 설명 및 청구항들에 걸쳐, "포함하다"라는 단어 및 그것의 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 설명서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다.
더욱이 본 발명은 본 명세서에 표시된 실시예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
본 발명에서 언급하는 각종 이미지는 포장 또는 비포장 도로 관련 이미지를 포함할 수 있으며, 이 경우 도로 환경에서 등장할 수 있는 물체(가령, 자동차, 사람, 동물, 식물, 물건, 건물, 비행기나 드론과 같은 비행체, 기타 장애물)를 상정할 수 있을 것이나, 반드시 이에 한정되는 것은 아니며, 본 발명에서 언급하는 각종 이미지는 도로와 상관 없는 이미지(가령, 비포장도로, 골목길, 공터, 바다, 호수, 강, 산, 숲, 사막, 하늘, 실내와 관련된 이미지)일 수도 있으며, 이 경우, 비포장도로, 골목길, 공터, 바다, 호수, 강, 산, 숲, 사막, 하늘, 실내 환경에서 등장할 수 있는 물체(가령, 자동차, 사람, 동물, 식물, 물건, 건물, 비행기나 드론과 같은 비행체, 기타 장애물)를 상정할 수 있을 것이나, 반드시 이에 한정되는 것은 아니다.
이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 이미지 인식을 위한 CNN을 학습하는 학습 장치(100)를 개략적으로 도시한 것으로, 도 1을 참조하면, 학습 장치(100)는 통신부(110)와 프로세서(120)를 포함할 수 있다.
먼저, 통신부(110)는 적어도 하나의 트레이닝 이미지를 수신할 수 있다.
이때, 트레이닝 이미지는 데이터베이스(130)에 저장되어 있을 수 있으며, 데이터베이스(130)에는 트레이닝 이미지에 대응하여 적어도 하나의 객체 각각에 대한 클래스 정보의 적어도 하나의 GT(Ground Truth) 및 각각의 객체에 대한 위치 정보의 적어도 하나의 GT가 저장되어 있을 수 있다.
또한, 학습 장치는 다음의 프로세스를 수행하기 위한 컴퓨터 판독 가능한 인스트럭션(Instruction)을 저장할 수 있는 메모리(115)를 더 포함할 수 있다. 일 실시예에 따르면, 프로세서, 메모리, 매체 등은 통합 프로세서(Integrated Processor)로 통합될 수 있다.
다음으로, 프로세서(120)는 (i) 적어도 하나의 컨벌루션 레이어로 하여금 트레이닝 이미지 상에서 ROI의 영역을 크롭(Crop)하고 리사이즈(Resize)하여 생성된 각각의 ROI 이미지에 대하여 컨벌루션 연산을 적어도 한 번 적용하여, 객체에 대응되는 적어도 하나의 ROI 별 ROI 특징 맵을 생성하도록 하는 프로세스, (ii) (ii-1) 풀링 레이어로 하여금 ROI 특징 맵에 대하여 풀링 연산을 적어도 한 번 적용하도록 하여 ROI 별 풀링된 특징 맵을 생성하도록 하며, 제1 트랜스포징 레이어(Transposing Layer)로 하여금 ROI 별 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 ROI 별로 컨캐터네이팅(Concatenating) 하도록 하여 통합 특징 맵(Integrated Feature Map)을 생성하도록 하거나, (ii-2) 풀링 레이어로 하여금 ROI 특징 맵에 대하여 풀링 연산을 적용하도록 하여 ROI 별 풀링된 특징 맵을 생성하도록 하고, 풀링 레이어로 하여금 ROI 별 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 ROI 별로 컨캐터네이팅하도록 하여 통합 특징 맵을 생성하도록 하는 프로세스를 수행할 수 있다. 그리고, 프로세서(120)는 제1 1x1 컨벌루션 레이어로 하여금 통합 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨(Volume)이 조정된 제1 조정 특징 맵(Adjusted Feature Map)을 생성하도록 하며, 제2 1x1 컨벌루션 레이어로 하여금 제1 조정 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨이 조정된 제2 조정 특징 맵을 생성하도록 하는 프로세스를 수행할 수 있다.
이후, 프로세서(120)는 (i) 제2 트랜스포징 레이어로 하여금 제2 조정 특징 맵을 픽셀 별로 분리하도록 하여 ROI 별 픽셀별 특징 맵(Pixel-Wise Feature Map)을 생성하도록 하며, 분류 레이어(Classifying Layer)로 하여금 ROI 별 픽셀별 특징 맵을 이용하여 ROI 각각에 대한 객체 정보를 생성하도록 하거나, (ii) 분류 레이어로 하여금 제2 조정 특징 맵을 픽셀 별로 분리하도록 하여 ROI 별 픽셀별 특징 맵을 생성하도록 하고, 분류 레이어로 하여금 ROI 별 픽셀별 특징 맵을 이용하여 ROI 각각에 대한 객체 정보를 생성하도록 하는 프로세스를 수행할 수 있다. 그리고, 프로세서(120)는 로스 레이어로 하여금 객체 정보와 이에 대응되는 GT를 참조하여 적어도 하나의 객체 로스를 산출하도록 함으로써, 객체 로스를 이용한 백프로파게이션을 통해 제2 1x1 컨벌루션 레이어, 제1 1x1 컨벌루션 레이어, 및 컨벌루션 레이어 중 적어도 일부의 파라미터를 학습하도록 하는 프로세스를 수행할 수 있다.
이때, 본 발명의 일 실시예에 따른 학습 장치(100)는 컴퓨팅 장치로서, 프로세서를 탑재하여 연산 능력을 갖춘 장치라면 얼마든지 본 발명에 따른 학습 장치(100)로서 채택될 수 있다. 또한, 도 1에서는 하나의 학습 장치(100)만을 나타내었으나, 이에 한정되지 않으며, 학습 장치는 복수 개로 나뉘어 역할을 수행할 수도 있다.
이와 같이 구성된 본 발명의 일 실시예에 따른 학습 장치(100)를 이용하여 이미지 인식을 위한 CNN을 학습하는 방법을 도 2를 참조하여 설명하면 다음과 같다.
먼저, 트레이닝 이미지가 입력되면, 학습 장치(100)가, 컨벌루션 레이어(121)로 하여금 트레이닝 이미지 상에서 ROI의 영역을 크롭하고 리사이즈 하여 생성된 ROI 별 이미지에 대하여 컨벌루션 연산을 적용하여 각각의 객체에 대응하는 적어도 하나의 ROI 별 ROI 특징 맵을 생성하도록 할 수 있다. 이때, 컨벌루션 레이어(121)는 ROI 이미지에 대하여 순차적으로 컨벌루션 연산을 적용하기 위하여 단일 컨벌루션 레이어 또는 복수 개의 컨벌루션 레이어일 수 있다.
다음으로, 학습 장치(100)는 풀링 레이어(122)로 하여금 ROI 별 ROI 특징 맵에 대하여 풀링 연산을 적용하도록 하여 ROI 별 풀링된 특징 맵을 생성하도록 할 수 있다.
일 예로, 도 3을 참조하면, ROI의 개수를 N이라 하며, ROI 별 풀링된 특징 맵(R1, R2, …, RN)의 너비를 M1, 높이를 M2라 하고, ROI 별 풀링된 특징 맵(R1, R2, …, RN)의 채널 개수를 J라 할 경우, ROI 별 풀링된 특징 맵(R1, R2, …, RN)은 각각 M1xM2xJ의 볼륨을 가질 수 있다.
다음으로, 학습 장치(100)는 제1 트랜즈포징 레이어(123)로 하여금 풀링 레이어(122)로부터 출력된 ROI 별 풀링된 특징 맵(R1, R2, …, RN) 상에 대응하는 동일한 각각의 위치의 각각의 픽셀을 ROI 별로 컨캐터네이팅하여 통합 특징 맵을 생성하도록 할 수 있다.
일 예로, 도 3과 도 4를 참조하면, 도 3에서의 ROI 별 각각의 풀링된 특징 맵(P1, P2, …, PN) 상에서의 첫 번째 픽셀을 각각 P1F11, P2F11, …, PNF11이라 할 경우, P1F11, P2F11, …, PNF11을 컨캐터네이팅하여 도 4에서 모든 채널 중 첫 번째 채널에 대응하는 가장 전면에 있는 라인과 같이 너비 N, 높이 1인 통합 특징 맵(400)의 제1 부분이 생성되도록 하며, 이 과정을 ROI 별 풀링된 특징 맵(P1, P2, …, PN) 각각에 있는 픽셀의 나머지 부분에도 반복 실행한다. 그리고 ROI 별 풀링된 특징 맵(P1, P2, …, PN) 각각에서의 픽셀 개수와 동일하게 채널 개수가 M1xM2xJ인 통합 특징 맵(400)을 생성할 수 있다.
앞서 설명한 바와 같이, 학습 장치(100)가 제1 트랜스포징 레이어(123)로 하여금 풀링 레이어(122)로부터 출력된 ROI 별 풀링된 특징 맵(P1, P2, …, PN)을 이용하여 통합 특징 맵(400)을 생성하도록 할 수 있다. 다른 예로, 학습 장치(100)가 제1 트랜스포징 레이어(123)를 사용하지 않고 풀링 레이어(122)로 하여금 통합 특징 맵을 생성하도록 할 수 있다. 즉, 다른 예로, 학습 장치(100)는 풀링 레이어(122)로 하여금 초기 특징 맵 상에서 ROI 각각에 대응되는 영역 각각에 대하여 풀링 연산을 적용하도록 하여 ROI 별 풀링된 특징 맵(P1, P2, …, PN)을 생성하도록 하고, ROI 별 풀링된 특징 맵(P1, P2, …, PN) 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 ROI 별로 컨캐터네이팅하도록 하여 통합 특징 맵(400)을 생성하도록 할 수 있다.
다음으로, 학습 장치(100)는 제1 1x1 컨벌루션 레이어(124)로 하여금 통합 특징 맵(400)에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨(Volume)이 조정된 제1 조정 특징 맵을 생성하도록 하며, 제2 1x1 컨벌루션 레이어(125)로 하여금 제1 조정 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨이 조정된 제2 조정 특징 맵을 생성하도록 하는 프로세스를 수행할 수 있다.
일 예로, 도 5a와 도 5b를 참조하면, 제1 1x1 컨벌루션 레이어(124)의 필터의 개수를 K라 하고, 제2 1x1 컨벌루션 레이어(125)의 필터의 개수를 L이라 할 경우, 학습 장치(100)는 제1 1x1 컨벌루션 레이어(124)로 하여금 도 4의 통합 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 도 5a에서와 같이 너비 N, 높이 1, 채널 개수 K인 Nx1xK의 볼륨을 가지는 제1 조정 특징 맵(500A)을 생성하도록 하며, 제2 1x1 컨벌루션 레이어(125)로 하여금 제1 조정 특징 맵(500A)에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 도 5b에서와 같이 너비 N, 높이 1, 채널 개수 L인 Nx1xL의 볼륨을 가지는 제2 조정 특징 맵(500B)을 생성하도록 하는 프로세스를 수행할 수 있다.
다음으로, 학습 장치(100)는 제2 트랜스포징 레이어(126)로 하여금 제2 조정 특징 맵(500B)을 픽셀 별로 분리하여 ROI 별 픽셀별 특징 맵을 생성하도록 할 수 있다.
일 예로, 도 6을 참조하면, 학습 장치(100)는 제2 트랜스포징 레이어(126)로 하여금 도 5b에서와 같이 너비 N, 높이 1, 채널 개수 L인 볼륨을 가지는 제2 조정 특징 맵(500B)을 픽셀 별로 분리하여 ROI 별로 너비 1, 높이1, 채널 개수 L인 픽셀별 특징 맵(PW1, PW2, …, 및 PWN)을 생성하도록 한다.
다음으로, 학습 장치(100)는 분류 레이어(127)로 하여금 ROI 별 픽셀별 특징 맵(PW1, PW2, …, 및 PWN)을 이용하여 ROI 각각에 대한 객체 정보를 생성하도록 할 수 있다. 이때, 분류 레이어(127)는 적어도 하나의 소프트맥스(Softmax) 알고리즘을 사용할 수 있으며, 각각의 ROI 내에 포함된 각각의 객체가 어떤 종류의 객체인지 나타내는 인지 결과를 생성할 수 있고, 인지 결과가 정답일 가능성에 대한 확률 정보를 생성하도록 할 수 있다. 이에 더하여, 객체 정보는 객체 각각이 트레이닝 이미지 내에 위치하는 위치 정보를 포함할 수도 있다.
앞서 설명한 바와 같이, 제2 트랜스포징 레이어(126)는 제2 조정 특징 맵(500B)을 이용해 ROI 별로 픽셀별 특징 맵(PW1, PW2, …, 및 PWN)을 생성할 수 있다. 다른 예로, 분류 레이어(127)는 제2 트랜스포징 레이어(126)를 사용하지 않고 제2 조정 특징 맵(500B)을 이용하여 ROI 별 픽셀별 특징 맵(PW1, PW2, …, 및 PWN)을 생성할 수 있다. 즉, 다른 예로, 학습 장치(100)는 분류 레이어(127)로 하여금 제2 조정 특징 맵(500B)을 픽셀 별로 분리하여 ROI 별 픽셀별 특징 맵(PW1, PW2, …, 및 PWN)을 생성하도록 하고, 분류 레이어(127)로 하여금 ROI 별 픽셀별 특징 맵(PW1, PW2, …, 및 PWN)을 이용하여 ROI 각각에 대한 객체 정보를 생성하도록 할 수 있다.
다음으로, 학습 장치(100)는 로스 레이어(128)로 하여금 객체 정보와 이에 대응되는 GT를 참조하여 적어도 하나의 객체 로스를 산출하도록 함으로써, 객체 로스를 이용한 백프로파게이션을 통해 제2 1x1 컨벌루션 레이어(125), 제1 1x1 컨벌루션 레이어(124), 및 컨벌루션 레이어(121) 중 적어도 일부의 파라미터를 학습할 수 있다.
상기에서와 같이 본 발명의 일 실시예에 따른 이미지 인식을 위한 CNN은 컨벌루션 레이어들로만 구성함으로써 입력 이미지의 사이즈에 관계없이 입력 이미지 내의 객체를 인식할 수 있다. 또한, 본 발명의 일 실시예에 따른 이미지 인식을 위한 CNN은 1x1 컨벌루션 레이어의 LC 연산(Local Connected Operation)을 적용함으로써 종래 FC 레이어의 FC 연산(Fully Connected Operation)에 비하여 컴퓨팅 연산량을 감소시킬 수 있게 된다.
도 7은 본 발명의 일 실시예에 따른 이미지 인식을 위한 CNN을 테스트하는 테스트 장치(200)를 개략적으로 도시한 것으로, 도 7을 참조하면, 테스트 장치(200)는 통신부(210)와 프로세서(220)를 포함할 수 있다.
또한, 테스트 장치는 다음의 프로세스를 수행하기 위한 컴퓨터 판독 가능한 인스트럭션(Instruction)을 저장할 수 있는 메모리(215)를 더 포함할 수 있다. 일 실시예에 따르면, 프로세서, 메모리, 매체 등은 통합 프로세서(Integrated Processor)로 통합될 수 있다.
참고로 이하의 설명에서 혼동을 피하기 위해 "학습용"이란 문구는 앞서 설명한 학습 프로세스와 관련된 용어에 대해 추가되고, "테스트용"이란 문구는 테스트 프로세스와 관련된 용어에 대해 추가된다.
먼저, 통신부(210)는 적어도 하나의 테스트 이미지를 획득할 수 있다.
이때, 본 발명의 일 실시예에 따른 이미지 인식을 위한 CNN은 도 1 내지 도 6을 참조하여 설명한 학습 방법에 의해 학습이 된 상태일 수 있다.
즉, 적어도 하나의 트레이닝 이미지가 획득되면, 학습 장치는, (a) (i) 적어도 하나의 컨벌루션 레이어로 하여금 트레이닝 이미지 상에서 학습용 ROI의 영역을 크롭(Crop)하고 리사이즈(Resize)하여 생성된 각각의 학습용 ROI 이미지에 대하여 컨벌루션 연산을 적용하여, 적어도 하나의 학습용 객체에 대응되는 적어도 하나의 학습용 ROI 별 학습용 ROI 특징 맵을 생성하도록 하고, (ii) (ii-1) 풀링 레이어로 하여금 학습용 ROI 특징 맵에 대하여 풀링 연산을 적용하도록 하여 학습용 ROI 별 학습용 풀링된 특징 맵을 생성하도록 하며, 제1 트랜스포징 레이어(Transposing Layer)로 하여금 학습용 ROI 별 학습용 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 학습용 ROI 별로 컨캐터네이팅(Concatenating)하도록 하여 학습용 통합 특징 맵(Integrated Feature Map)을 생성하도록 하거나, (ii-2) 풀링 레이어로 하여금 학습용 ROI 특징 맵에 대하여 풀링 연산을 적용하도록 하여 학습용 ROI 별 학습용 풀링된 특징 맵을 생성하도록 하고, 풀링 레이어로 하여금 학습용 ROI 별 학습용 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 학습용 ROI 별로 컨캐터네이팅하도록 하여 학습용 통합 특징 맵을 생성하도록 하는 프로세스; (b) 제1 1x1 컨벌루션 레이어로 하여금 학습용 통합 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨(Volume)이 조정된 학습용 제1 조정 특징 맵(Adjusted Feature Map)을 생성하도록 하며, 제2 1x1 컨벌루션 레이어로 하여금 학습용 제1 조정 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨이 조정된 학습용 제2 조정 특징 맵을 생성하도록 하는 프로세스; 및 (c) (c1) (i) 제2 트랜스포징 레이어로 하여금 학습용 제2 조정 특징 맵을 픽셀 별로 분리하도록 하여 학습용 ROI 별 학습용 픽셀별 특징 맵(Pixel-Wise Feature Map)을 생성하도록 하며, 분류 레이어(Classifying Layer)로 하여금 학습용 ROI 별 학습용 픽셀별 특징 맵을 이용하여 학습용 ROI 각각에 대한 학습용 객체 정보를 생성하도록 하거나, (ii) 분류 레이어로 하여금 학습용 제2 조정 특징 맵을 픽셀 별로 분리하도록 하여 학습용 ROI 별 학습용 픽셀별 특징 맵을 생성하도록 하고, 분류 레이어로 하여금 학습용 ROI 별 학습용 픽셀별 특징 맵을 이용하여 학습용 ROI 각각에 대한 학습용 객체 정보를 생성하도록 한 후, (c2) 로스 레이어로 하여금 학습용 객체 정보와 이에 대응되는 GT(Ground Truth)를 참조하여 적어도 하나의 객체 로스를 산출하도록 함으로써, 객체 로스를 이용한 백프로파게이션을 통해 제2 1x1 컨벌루션 레이어, 제1 1x1 컨벌루션 레이어, 및 컨벌루션 레이어 중 적어도 일부의 파라미터를 학습하는 프로세스를 수행한 상태일 수 있다.
다음으로, 프로세서(220)는 (i) 컨벌루션 레이어로 하여금 테스트 이미지 상에서 테스트용 ROI의 영역을 크롭(Crop)하고 리사이즈(Resize)하여 생성된 각각의 테스트용 ROI 이미지에 대하여 컨벌루션 연산을 적용하여, 적어도 하나의 테스트용 객체에 대응되는 적어도 하나의 테스트용 ROI 별 테스트용 ROI 특징 맵을 생성하도록 하고, (ii) (ii-1) 풀링 레이어로 하여금 테스트용 ROI 특징 맵에 대하여 풀링 연산을 적용하도록 하여 테스트용 ROI 별 테스트용 풀링된 특징 맵을 생성하도록 하며, 제1 트랜스포징 레이어(Transposing Layer)로 하여금 테스트용 ROI 별 테스트용 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 테스트용 ROI 별로 컨캐터네이팅(Concatenating)하도록 하여 테스트용 통합 특징 맵(Integrated Feature Map)을 생성하도록 하거나, (ii-2) 풀링 레이어로 하여금 테스트용 ROI 특징 맵에 대하여 풀링 연산을 적용하도록 하여 테스트용 ROI 별 테스트용 풀링된 특징 맵을 생성하도록 하고, 풀링 레이어로 하여금 테스트용 ROI 별 테스트용 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 테스트용 ROI 별로 컨캐터네이팅하도록 하여 테스트용 통합 특징 맵을 생성하도록 하는 프로세스를 수행할 수 있다. 그리고, 프로세서(220)는 제1 1x1 컨벌루션 레이어로 하여금 테스트용 통합 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨(Volume)이 조정된 테스트용 제1 조정 특징 맵(Adjusted Feature Map)을 생성하도록 하며, 제2 1x1 컨벌루션 레이어로 하여금 테스트용 제1 조정 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨이 조정된 테스트용 제2 조정 특징 맵을 생성하도록 하는 프로세스를 수행할 수 있다. 이후, 프로세서(220)는 (i) 제2 트랜스포징 레이어로 하여금 테스트용 제2 조정 특징 맵을 픽셀 별로 분리하도록 하여 테스트용 ROI 별 테스트용 픽셀별 특징 맵(Pixel-Wise Feature Map)을 생성하도록 하며, 분류 레이어(Classifying Layer)로 하여금 테스트용 ROI 별 테스트용 픽셀별 특징 맵을 이용하여 테스트용 ROI 각각에 대한 테스트용 객체 정보를 생성하도록 하거나, (ii) 분류 레이어로 하여금 테스트용 제2 조정 특징 맵을 픽셀 별로 분리하도록 하여 테스트용 ROI 별 테스트용 픽셀별 특징 맵을 생성하도록 하고, 분류 레이어로 하여금 테스트용 ROI 별 테스트용 픽셀별 특징 맵을 이용하여 테스트용 ROI 각각에 대한 테스트용 객체 정보를 생성하도록 하는 프로세스를 수행할 수 있다.
이때, 본 발명의 일 실시예에 따른 테스트 장치(200)는 컴퓨팅 장치로서, 프로세서를 탑재하여 연산 능력을 갖춘 장치라면 얼마든지 본 발명에 따른 테스트 장치(200)로서 채택될 수 있다. 또한, 도 7에서는 하나의 테스트 장치(200)만을 나타내었으나, 이에 한정되지 않으며, 테스트 장치는 복수 개로 나뉘어 역할을 수행할 수도 있다.
이와 같이 구성된 본 발명의 일 실시예에 따른 테스트 장치(200)를 이용하여 이미지 인식을 위한 CNN을 테스트하는 방법을 도 8을 참조하여 설명하면 다음과 같다. 이하의 설명에서, 도 1 내지 도 6를 참조하여 설명한 학습 방법으로부터 용이하게 이해 가능한 부분에 대해서는 상세한 설명을 생략하기로 한다.
먼저, 도 1 내지 도 6을 참조하여 설명한 학습 방법에 의해 컨벌루션 레이어(221), 제1 1x1 컨벌루션 레이어(224), 및 제2 1x1 컨벌루션 레이어(225)의 적어도 일부 파라미터가 학습된 상태에서, 테스트 이미지가 입력되면, 테스트 장치(200)가, 컨벌루션 레이어(221)로 하여금 테스트 이미지 상에서 테스트용 ROI의 영역을 크롭(Crop)하고 리사이즈(Resize)하여 생성된 각각의 테스트용 ROI 이미지에 대하여 컨벌루션 연산을 적어도 한 번 적용하여, 테스트용 객체에 대응되는 테스트용 ROI 별 테스트용 ROI 특징 맵을 생성하도록 한다. 이때, 컨벌루션 레이어(221)는 테스트용 ROI 이미지에 대하여 순차적으로 컨벌루션 연산을 적용하기 위하여 단일 컨벌루션 레이어 또는 복수 개의 컨벌루션 레이어일 수 있다.
다음으로, 테스트 장치(200)는 풀링 레이어(222)로 하여금 제1 테스트용 ROI 별 테스트용 ROI 특징 맵에 대하여 풀링 연산을 적용하도록 하여 테스트용 ROI 별 테스트용 풀링된 특징 맵을 생성하도록 할 수 있다.
다음으로, 테스트 장치(200)는 제1 트랜즈포징 레이어(223)로 하여금 풀링 레이어(222)로부터 출력된 테스트용 ROI 별 테스트용 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 테스트용 ROI 별로 컨캐터네이팅하도록 하여 테스트용 통합 특징 맵을 생성하도록 할 수 있다.
상기에서 설명한 바와 같이, 테스트 장치(200)가 제1 트랜스포징 레이어(223)로 하여금 풀링 레이어(222)로부터 출력된 테스트용 ROI 별 테스트용 풀링된 특징 맵을 이용하여 테스트용 통합 특징 맵을 생성하도록 하였다. 다른 예로, 테스트 장치(200)는 제1 트랜스포징 레이어(223)를 사용하지 않고 풀링 레이어(222)로 하여금 테스트용 통합 특징 맵을 생성하도록 할 수 있다. 즉, 테스트 장치(200)는 풀링 레이어(222)로 하여금 테스트용 ROI 별 테스트용 ROI 특징 맵에 대하여 풀링 연산을 적용하도록 하여 테스트용 ROI 별 테스트용 풀링된 특징 맵을 생성하고, 테스트용 ROI 별 테스트용 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 테스트용 ROI 별로 컨캐터네이팅하여 테스트용 통합 특징 맵을 생성하도록 할 수 있다.
다음으로, 테스트 장치(200)는 제1 1x1 컨벌루션 레이어(224)로 하여금 테스트용 통합 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨(Volume)이 조정된 테스트용 제1 조정 특징 맵을 생성하도록 하며, 제2 1x1 컨벌루션 레이어(225)로 하여금 테스트용 제1 조정 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨이 조정된 테스트용 제2 조정 특징 맵을 생성하도록 하는 프로세스를 수행할 수 있다.
다음으로, 테스트 장치(200)는 제2 트랜스포징 레이어(226)로 하여금 테스트용 제2 조정 특징 맵을 픽셀 별로 분리하도록 하여 테스트용 ROI 별 테스트용 픽셀별 특징 맵을 생성하도록 할 수 있다.
다음으로, 테스트 장치(200)는 분류 레이어(227)로 하여금 테스트용 ROI 별 테스트용 픽셀별 특징 맵을 이용하여 테스트용 ROI들 각각에 대한 테스트용 객체 정보를 생성하도록 할 수 있다. 이때, 분류 레이어(227)는 소프트맥스(Softmax) 알고리즘을 사용할 수 있으며, 각각의 테스트용 ROI 내에 포함된 테스트용 각각의 객체가 어떤 종류의 객체인지 나타내는 인지 결과를 생성할 수 있고, 인지 결과가 정답일 가능성에 대한 확률 정보를 생성하도록 할 수 있다. 이에 더하여, 테스트용 객체 정보는 테스트용 객체 각각이 테스트 이미지 내에 위치하는 위치 정보를 포함할 수도 있다.
상기에서 설명한 바와 같이 제2 트랜스포징 레이어(226)는 테스트용 제2 조정 특징 맵을 이용하여 테스트용 ROI 별 테스트용 픽셀별 특징 맵을 생성하도록 할 수 있다. 다른 예로, 분류 레이어(227)는 제2 트랜스포징 레이어(226)를 사용하지 않고 테스트용 제2 조정 특징 맵을 이용하여 테스트용 ROI 별 테스트용 픽셀별 특징 맵을 생성하도록 할 수 있다. 즉, 테스트 장치(200)는 분류 레이어(227)로 하여금 테스트용 제2 조정 특징 맵을 픽셀 별로 분리하여 테스트용 ROI 별 테스트용 픽셀별 특징 맵을 생성하도록 하고, 분류 레이어(227)로 하여금 테스트용 ROI 별 테스트용 픽셀별 특징 맵을 이용하여 테스트용 ROI 각각에 대한 테스트용 객체 정보를 생성하도록 할 수 있다.
본 방법에서 동일한 프로세서가 컨벌루션 연산 및 FC 연산을 수행하기 때문에 칩(Chip)의 사이즈를 줄여 하드웨어를 최적화하여 KPI(Key Performance Index, 핵심성과지표)를 충족할 수 있다. 따라서, 반도체 제작 과정 중 추가 라인을 설치할 필요가 없으며, 전력 절감, 반도체 다이(Die) 내에서 FC 모듈 대신 다른 모듈을 설치할 공간이 넓어지는 등의 장점이 있다.
또한, 이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.
100: 학습 장치,
200: 테스트 장치,
110, 210: 통신부,
120, 220: 프로세서,
130: 데이터베이스

Claims (20)

  1. 이미지 인식을 위한 CNN의 파라미터를 학습하는 방법에 있어서,
    (a) 적어도 하나의 트레이닝 이미지가 입력되면, 학습 장치가, (i) 적어도 하나의 컨벌루션 레이어로 하여금 상기 트레이닝 이미지 상에서 ROI의 영역을 크롭(Crop)하고 리사이즈(Resize)하여 생성된 각각의 ROI 이미지에 대하여 컨벌루션 연산을 적어도 한 번 적용하여 적어도 하나의 객체에 대응되는 적어도 하나의 상기 ROI 별 ROI 특징 맵을 생성하도록 하고, (ii) (ii-1) 풀링 레이어로 하여금 상기 ROI 특징 맵에 대하여 풀링 연산을 적어도 한 번 적용하도록 하여 상기 ROI 별 풀링된 특징 맵을 생성하도록 하며, 제1 트랜스포징 레이어(Transposing Layer)로 하여금 상기 ROI 별 상기 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 상기 ROI 별로 컨캐터네이팅(Concatenating)하도록 하여 통합 특징 맵(Integrated Feature Map)을 생성하도록 하거나, (ii-2) 상기 풀링 레이어로 하여금 상기 ROI 특징 맵에 대하여 풀링 연산을 적용하도록 하여 상기 ROI 별 상기 풀링된 특징 맵을 생성하도록 하고, 상기 풀링 레이어로 하여금 상기 ROI 별 상기 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 상기 픽셀을 상기 ROI 별로 컨캐터네이팅하도록 하여 상기 통합 특징 맵을 생성하도록 하는 단계;
    (b) 상기 학습 장치가, 제1 1x1 컨벌루션 레이어로 하여금 상기 통합 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨(Volume)이 조정된 제1 조정 특징 맵(Adjusted Feature Map)을 생성하도록 하며, 제2 1x1 컨벌루션 레이어로 하여금 상기 제1 조정 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨이 조정된 제2 조정 특징 맵을 생성하도록 하는 단계; 및
    (c) 상기 학습 장치가, (c1) (i) 제2 트랜스포징 레이어로 하여금 상기 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 ROI 별 픽셀별 특징 맵(Pixel-Wise Feature Map)을 생성하도록 하며, 분류 레이어(Classifying Layer)로 하여금 상기 ROI 별 상기 픽셀별 특징 맵을 이용하여 상기 ROI 각각에 대한 객체 정보를 생성하도록 하거나, (ii) 상기 분류 레이어로 하여금 상기 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 ROI 별 상기 픽셀별 특징 맵을 생성하도록 하고, 상기 분류 레이어로 하여금 상기 ROI 별 상기 픽셀별 특징 맵을 이용하여 상기 ROI 각각에 대한 상기 객체 정보를 생성하도록 한 후, (c2) 로스 레이어로 하여금 상기 객체 정보와 이에 대응되는 GT(Ground Truth)를 참조하여 적어도 하나의 객체 로스를 산출하도록 함으로써, 상기 객체 로스를 이용한 백프로파게이션을 통해 상기 제2 1x1 컨벌루션 레이어, 상기 제1 1x1 컨벌루션 레이어, 및 상기 컨벌루션 레이어 중 적어도 일부의 파라미터를 학습하도록 하는 단계;
    를 포함하는 것을 특징으로 하는 학습 방법.
  2. 제 1 항에 있어서,
    상기 ROI의 개수를 N이라 하며, 상기 ROI 별 상기 풀링된 특징 맵의 너비를 M1, 높이를 M2라 하고, 상기 ROI 별 상기 풀링된 특징 맵의 채널 개수를 J라 할 경우,
    상기 (a) 단계에서,
    상기 학습 장치는, (i) 상기 제1 트랜스포징 레이어로 하여금 상기 ROI 별 상기 풀링된 특징 맵을 너비 1, 높이 N, 채널 M1xM2xJ인 상기 통합 특징 맵으로 변환시키도록 하거나, (ii) 상기 풀링 레이어로 하여금 상기 ROI 별 상기 풀링된 특징 맵을 너비 1, 높이 N, 채널 M1xM2xJ인 상기 통합 특징 맵으로 변환시키도록 하는 것을 특징으로 하는 학습 방법.
  3. 제 2 항에 있어서,
    상기 제1 1x1 컨벌루션 레이어의 필터의 개수를 K라 하고, 상기 제2 1x1 컨벌루션 레이어의 필터의 개수를 L이라 할 경우,
    상기 (b) 단계에서,
    상기 학습 장치는, 상기 제1 1x1 컨벌루션 레이어로 하여금 너비 N, 높이 1, 채널 K인 Nx1xK의 볼륨을 가지는 상기 제1 조정 특징 맵을 생성하도록 하며, 상기 제2 1x1 컨벌루션 레이어로 하여금 너비 N, 높이 1, 채널 L인 Nx1xL의 볼륨을 가지는 상기 제2 조정 특징 맵을 생성하도록 하는 것을 특징으로 하는 학습 방법.
  4. 제 3 항에 있어서,
    상기 (c) 단계에서,
    상기 학습 장치는, (i) 상기 제2 트랜스포징 레이어로 하여금 상기 제2 조정 특징 맵을, N개의 ROI 각각에 대응하는 너비 1, 높이 1, 채널 L인 1x1xL의 볼륨을 가지는 상기 ROI 별 상기 픽셀별 특징 맵으로 변환하도록 하거나, (ii) 상기 분류 레이어로 하여금 상기 제2 조정 특징 맵을, 상기 N개의 ROI 각각에 대응하는 너비 1, 높이 1, 채널 L인 1x1xL의 볼륨을 가지는 상기 ROI 별 상기 픽셀별 특징 맵으로 변환하도록 하는 것을 특징으로 하는 학습 방법.
  5. 제 1 항에 있어서,
    상기 분류 레이어는 적어도 하나의 소프트맥스(Softmax) 알고리즘을 사용하는 것을 특징으로 하는 학습 방법.
  6. 이미지 인식을 위한 CNN을 테스트하는 방법에 있어서,
    (a) 학습 장치가, (1) (i) 적어도 하나의 컨벌루션 레이어로 하여금 적어도 하나의 트레이닝 이미지 상에서 학습용 ROI의 영역을 크롭(Crop)하고 리사이즈(Resize)하여 생성된 각각의 학습용 ROI 이미지에 대하여 컨벌루션 연산을 적어도 한 번 적용하여 적어도 하나의 학습용 객체에 대응되는 적어도 하나의 상기 학습용 ROI 별 학습용 ROI 특징 맵을 생성하도록 하고, (ii) (ii-1) 풀링 레이어로 하여금 상기 학습용 ROI 특징 맵에 대하여 풀링 연산을 적어도 한 번 적용하도록 하여 상기 학습용 ROI 별 학습용 풀링된 특징 맵을 생성하도록 하며, 제1 트랜스포징 레이어(Transposing Layer)로 하여금 상기 학습용 ROI 별 상기 학습용 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 상기 학습용 ROI 별로 컨캐터네이팅(Concatenating) 하도록 하여 학습용 통합 특징 맵(Integrated Feature Map)을 생성하도록 하거나, (ii-2) 상기 풀링 레이어로 하여금 상기 학습용 ROI 특징 맵에 대하여 풀링 연산을 적용하도록 하여 상기 학습용 ROI 별 상기 학습용 풀링된 특징 맵을 생성하도록 하고, 상기 풀링 레이어로 하여금 상기 학습용 ROI 별 상기 학습용 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 상기 픽셀을 상기 학습용 ROI 별로 컨캐터네이팅하도록 하여 상기 학습용 통합 특징 맵을 생성하도록 하며, (2) 제1 1x1 컨벌루션 레이어로 하여금 상기 학습용 통합 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨(Volume)이 조정된 학습용 제1 조정 특징 맵(Adjusted Feature Map)을 생성하도록 하며, 제2 1x1 컨벌루션 레이어로 하여금 상기 학습용 제1 조정 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨이 조정된 학습용 제2 조정 특징 맵을 생성하도록 하며, (3) (3-1) (i) 제2 트랜스포징 레이어로 하여금 상기 학습용 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 학습용 ROI 별 학습용 픽셀별 특징 맵(Pixel-Wise Feature Map)을 생성하도록 하며, 분류 레이어(Classifying Layer)로 하여금 상기 학습용 ROI 별 상기 학습용 픽셀별 특징 맵을 이용하여 상기 학습용 ROI 각각에 대한 학습용 객체 정보를 생성하도록 하거나, (ii) 상기 분류 레이어로 하여금 상기 학습용 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 학습용 ROI 별 상기 학습용 픽셀별 특징 맵을 생성하도록 하고, 상기 분류 레이어로 하여금 상기 학습용 ROI 별 상기 학습용 픽셀별 특징 맵을 이용하여 상기 학습용 ROI 각각에 대한 상기 학습용 객체 정보를 생성하도록 한 후, (3-2) 로스 레이어로 하여금 상기 학습용 객체 정보와 이에 대응되는 GT(Ground Truth)를 참조하여 적어도 하나의 객체 로스를 산출하도록 함으로써, 상기 객체 로스를 이용한 백프로파게이션을 통해 상기 제2 1x1 컨벌루션 레이어, 상기 제1 1x1 컨벌루션 레이어, 및 상기 컨벌루션 레이어 중 적어도 일부의 파라미터를 학습한 상태에서, 적어도 하나의 테스트 이미지가 입력되면, 테스트 장치가, (i) 상기 컨벌루션 레이어로 하여금 상기 테스트 이미지 상에서 테스트용 ROI의 영역을 크롭(Crop)하고 리사이즈(Resize)하여 생성된 각각의 테스트용 ROI 이미지에 대하여 컨벌루션 연산을 적어도 한 번 적용하여 적어도 하나의 테스트용 객체에 대응되는 적어도 하나의 상기 테스트용 ROI 별 테스트용 ROI 특징 맵을 생성하도록 하고, (ii) (ii-1) 상기 풀링 레이어로 하여금 상기 테스트용 ROI 특징 맵에 대하여 풀링 연산을 적어도 한 번 적용하도록 하여 상기 테스트용 ROI 별 테스트용 풀링된 특징 맵을 생성하도록 하며, 상기 제1 트랜스포징 레이어(Transposing Layer)로 하여금 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 상기 테스트용 ROI 별로 컨캐터네이팅(Concatenating)하도록 하여 테스트용 통합 특징 맵(Integrated Feature Map)을 생성하도록 하거나, (ii-2) 상기 풀링 레이어로 하여금 상기 테스트용 ROI 특징 맵에 대하여 풀링 연산을 적용하도록 하여 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵을 생성하도록 하고, 상기 풀링 레이어로 하여금 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 상기 픽셀을 상기 테스트용 ROI 별로 컨캐터네이팅하도록 하여 상기 테스트용 통합 특징 맵을 생성하도록 하는 단계;
    (b) 상기 테스트 장치가, 상기 제1 1x1 컨벌루션 레이어로 하여금 상기 테스트용 통합 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨(Volume)이 조정된 테스트용 제1 조정 특징 맵(Adjusted Feature Map)을 생성하도록 하며, 상기 제2 1x1 컨벌루션 레이어로 하여금 상기 테스트용 제1 조정 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨이 조정된 테스트용 제2 조정 특징 맵을 생성하도록 하는 단계; 및
    (c) 상기 테스트 장치가, (i) 상기 제2 트랜스포징 레이어로 하여금 상기 테스트용 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 테스트용 ROI 별 테스트용 픽셀별 특징 맵(Pixel-Wise Feature Map)을 생성하도록 하며, 상기 분류 레이어로 하여금 상기 테스트용 ROI 별 상기 테스트용 픽셀별 특징 맵을 이용하여 상기 테스트용 ROI 각각에 대한 테스트용 객체 정보를 생성하도록 하거나, (ii) 상기 분류 레이어로 하여금 상기 테스트용 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 테스트용 ROI 별 상기 테스트용 픽셀별 특징 맵을 생성하도록 하고, 상기 분류 레이어로 하여금 상기 테스트용 ROI 별 상기 테스트용 픽셀별 특징 맵을 이용하여 상기 테스트용 ROI 각각에 대한 상기 테스트용 객체 정보를 생성하도록 하는 단계;
    를 포함하는 것을 특징으로 하는 테스트 방법.
  7. 제 6 항에 있어서,
    상기 테스트용 ROI의 개수를 N이라 하며, 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵의 너비를 M1, 높이를 M2라 하고, 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵의 채널 개수를 J라 할 경우,
    상기 (a) 단계에서,
    상기 테스트 장치는, (i) 상기 제1 트랜스포징 레이어로 하여금 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵을 너비 1, 높이 N, 채널 M1xM2xJ인 상기 테스트용 통합 특징 맵으로 변환시키도록 하거나, (ii) 상기 풀링 레이어로 하여금 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵을 너비 1, 높이 N, 채널 M1xM2xJ인 상기 테스트용 통합 특징 맵으로 변환시키도록 하는 것을 특징으로 하는 테스트 방법.
  8. 제 7 항에 있어서,
    상기 제1 1x1 컨벌루션 레이어의 필터의 개수를 K라 하고, 상기 제2 1x1 컨벌루션 레이어의 필터의 개수를 L이라 할 경우,
    상기 (b) 단계에서,
    상기 테스트 장치는, 상기 제1 1x1 컨벌루션 레이어로 하여금 너비 N, 높이 1, 채널 K인 Nx1xK의 볼륨을 가지는 상기 테스트용 제1 조정 특징 맵을 생성하도록 하며, 상기 제2 1x1 컨벌루션 레이어로 하여금 너비 N, 높이 1, 채널 L인 Nx1xL의 볼륨을 가지는 상기 테스트용 제2 조정 특징 맵을 생성하도록 하는 것을 특징으로 하는 테스트 방법.
  9. 제 8 항에 있어서,
    상기 (c) 단계에서,
    상기 테스트 장치는, (i) 상기 제2 트랜스포징 레이어로 하여금 상기 테스트용 제2 조정 특징 맵을, N개의 테스트용 ROI 각각에 대응하는 너비 1, 높이 1, 채널 L인 1x1xL의 볼륨을 가지는 상기 테스트용 ROI 별 상기 테스트용 픽셀별 특징 맵으로 변환하도록 하거나, (ii) 상기 분류 레이어로 하여금 상기 테스트용 제2 조정 특징 맵을, 상기 N개의 테스트용 ROI 각각에 대응하는 너비 1, 높이 1, 채널 L인 1x1xL의 볼륨을 가지는 상기 테스트용 ROI 별 상기 테스트용 픽셀별 특징 맵으로 변환하도록 하는 것을 특징으로 하는 테스트 방법.
  10. 제 6 항에 있어서,
    상기 분류 레이어는 적어도 하나의 소프트맥스(Softmax) 알고리즘을 사용하는 것을 특징으로 하는 테스트 방법.
  11. 이미지 인식을 위한 CNN의 파라미터를 학습하는 학습 장치에 있어서,
    인스트럭션을 저장하는 적어도 하나의 메모리; 및
    (I) (i) 적어도 하나의 컨벌루션 레이어로 하여금 적어도 하나의 트레이닝 이미지 상에서 ROI의 영역을 크롭(Crop)하고 리사이즈(Resize)하여 생성된 각각의 ROI 이미지에 대하여 컨벌루션 연산을 적어도 한 번 적용하여 적어도 하나의 객체에 대응되는 적어도 하나의 상기 ROI 별 ROI 특징 맵을 생성하도록 하고, (ii) (ii-1) 풀링 레이어로 하여금 상기 ROI 특징 맵에 대하여 풀링 연산을 적어도 한 번 적용하도록 하여 상기 ROI 별 풀링된 특징 맵을 생성하도록 하며, 제1 트랜스포징 레이어(Transposing Layer)로 하여금 상기 ROI 별 상기 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 상기 ROI 별로 컨캐터네이팅(Concatenating)하도록 하여 통합 특징 맵(Integrated Feature Map)을 생성하도록 하거나, (ii-2) 상기 풀링 레이어로 하여금 상기 ROI 특징 맵에 대하여 풀링 연산을 적용하도록 하여 상기 ROI 별 상기 풀링된 특징 맵을 생성하도록 하고, 상기 풀링 레이어로 하여금 상기 ROI 별 상기 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 상기 픽셀을 상기 ROI 별로 컨캐터네이팅하도록 하여 상기 통합 특징 맵을 생성하도록 하는 프로세스, (II) 제1 1x1 컨벌루션 레이어로 하여금 상기 통합 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨(Volume)이 조정된 제1 조정 특징 맵(Adjusted Feature Map)을 생성하도록 하며, 제2 1x1 컨벌루션 레이어로 하여금 상기 제1 조정 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨이 조정된 제2 조정 특징 맵을 생성하도록 하는 프로세스, 및 (III) (III-1) (i) 제2 트랜스포징 레이어로 하여금 상기 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 ROI 별 픽셀별 특징 맵(Pixel-Wise Feature Map)을 생성하도록 하며, 분류 레이어(Classifying Layer)로 하여금 상기 ROI 별 상기 픽셀별 특징 맵을 이용하여 상기 ROI 각각에 대한 객체 정보를 생성하도록 하거나, (ii) 상기 분류 레이어로 하여금 상기 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 ROI 별 상기 픽셀별 특징 맵을 생성하도록 하고, 상기 분류 레이어로 하여금 상기 ROI 별 상기 픽셀별 특징 맵을 이용하여 상기 ROI 각각에 대한 상기 객체 정보를 생성하도록 한 후, (III-2) 로스 레이어로 하여금 상기 객체 정보와 이에 대응되는 GT(Ground Truth)를 참조하여 적어도 하나의 객체 로스를 산출하도록 함으로써, 상기 객체 로스를 백프로파게이션하여 상기 제2 1x1 컨벌루션 레이어, 상기 제1 1x1 컨벌루션 레이어, 및 상기 컨벌루션 레이어 중 적어도 일부의 파라미터를 학습하도록 하는 프로세스를 수행하기 위한 상기 인스트럭션을 실행하도록 구성된 적어도 하나의 프로세서;
    를 포함하는 것을 특징으로 하는 학습 장치.
  12. 제 11 항에 있어서,
    상기 ROI의 개수를 N이라 하며, 상기 ROI 별 상기 풀링된 특징 맵의 너비를 M1, 높이를 M2라 하고, 상기 ROI 별 상기 풀링된 특징 맵의 채널 개수를 J라 할 경우,
    상기 (I) 프로세스에서,
    상기 프로세서는, (i) 상기 제1 트랜스포징 레이어로 하여금 상기 ROI 별 상기 풀링된 특징 맵을 너비 1, 높이 N, 채널 M1xM2xJ인 상기 통합 특징 맵으로 변환시키도록 하거나, (ii) 상기 풀링 레이어로 하여금 상기 ROI 별 상기 풀링된 특징 맵을 너비 1, 높이 N, 채널 M1xM2xJ인 상기 통합 특징 맵으로 변환시키도록 하는 것을 특징으로 하는 학습 장치.
  13. 제 12 항에 있어서,
    상기 제1 1x1 컨벌루션 레이어의 필터의 개수를 K라 하고, 상기 제2 1x1 컨벌루션 레이어의 필터의 개수를 L이라 할 경우,
    상기 (II) 프로세스에서,
    상기 프로세서는, 상기 제1 1x1 컨벌루션 레이어로 하여금 너비 N, 높이 1, 채널 K인 Nx1xK의 볼륨을 가지는 상기 제1 조정 특징 맵을 생성하도록 하며, 상기 제2 1x1 컨벌루션 레이어로 하여금 너비 N, 높이 1, 채널 L인 Nx1xL의 볼륨을 가지는 상기 제2 조정 특징 맵을 생성하도록 하는 것을 특징으로 하는 학습 장치.
  14. 제 13 항에 있어서,
    상기 (III) 프로세스에서,
    상기 프로세서는, (i) 상기 제2 트랜스포징 레이어로 하여금 상기 제2 조정 특징 맵을, N개의 ROI 각각에 대응하는 너비 1, 높이 1, 채널 L인 1x1Xl의 볼륨을 가지는 상기 ROI 별 상기 픽셀별 특징 맵으로 변환하도록 하거나, (ii) 상기 분류 레이어로 하여금 상기 제2 조정 특징 맵을, 상기 N개의 ROI 각각에 대응하는 너비 1, 높이 1, 채널 L인 1x1xL의 볼륨을 가지는 상기 ROI 별 상기 픽셀별 특징 맵으로 변환하도록 하는 것을 특징으로 하는 학습 장치.
  15. 제 11 항에 있어서,
    상기 분류 레이어는 적어도 하나의 소프트맥스(Softmax) 알고리즘을 사용하는 것을 특징으로 하는 학습 장치.
  16. 이미지 인식을 위한 CNN을 테스트하는 테스트 장치에 있어서,
    인스트럭션을 저장하는 적어도 하나의 메모리; 및
    학습 장치가, (1) (i) 적어도 하나의 컨벌루션 레이어로 하여금 적어도 하나의 트레이닝 이미지 상에서 학습용 ROI의 영역을 크롭(Crop)하고 리사이즈(Resize)하여 생성된 각각의 학습용 ROI 이미지에 대하여 컨벌루션 연산을 적어도 한 번 적용하여 적어도 하나의 학습용 객체에 대응되는 적어도 하나의 상기 학습용 ROI 별 학습용 ROI 특징 맵을 생성하도록 하고, (ii) (ii-1) 풀링 레이어로 하여금 상기 학습용 ROI 특징 맵에 대하여 풀링 연산을 적어도 한 번 적용하도록 하여 상기 학습용 ROI 별 학습용 풀링된 특징 맵을 생성하도록 하며, 제1 트랜스포징 레이어(Transposing Layer)로 하여금 상기 학습용 ROI 별 상기 학습용 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 상기 학습용 ROI 별로 컨캐터네이팅(Concatenating) 하도록 하여 학습용 통합 특징 맵(Integrated Feature Map)을 생성하도록 하거나, (ii-2) 상기 풀링 레이어로 하여금 상기 학습용 ROI 특징 맵에 대하여 풀링 연산을 적용하도록 하여 상기 학습용 ROI 별 상기 학습용 풀링된 특징 맵을 생성하도록 하고, 상기 풀링 레이어로 하여금 상기 학습용 ROI 별 상기 학습용 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 상기 픽셀 각각을 상기 학습용 ROI 별로 컨캐터네이팅하도록 하여 상기 학습용 통합 특징 맵을 생성하도록 하며, (2) 제1 1x1 컨벌루션 레이어로 하여금 상기 학습용 통합 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨(Volume)이 조정된 학습용 제1 조정 특징 맵(Adjusted Feature Map)을 생성하도록 하며, 제2 1x1 컨벌루션 레이어로 하여금 상기 학습용 제1 조정 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨이 조정된 학습용 제2 조정 특징 맵을 생성하도록 하며, (3) (3-1) (i) 제2 트랜스포징 레이어로 하여금 상기 학습용 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 학습용 ROI 별 학습용 픽셀별 특징 맵(Pixel-Wise Feature Map)을 생성하도록 하며, 분류 레이어(Classifying Layer)로 하여금 상기 학습용 ROI 별 상기 학습용 픽셀별 특징 맵을 이용하여 상기 학습용 ROI 각각에 대한 학습용 객체 정보를 생성하도록 하거나, (ii) 상기 분류 레이어로 하여금 상기 학습용 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 학습용 ROI 별 상기 학습용 픽셀별 특징 맵을 생성하도록 하고, 상기 분류 레이어로 하여금 상기 학습용 ROI 별 상기 학습용 픽셀별 특징 맵을 이용하여 상기 학습용 ROI 각각에 대한 상기 학습용 객체 정보를 생성하도록 한 후, (3-2) 로스 레이어로 하여금 상기 학습용 객체 정보와 이에 대응되는 GT(Ground Truth)를 참조하여 적어도 하나의 객체 로스를 산출하도록 함으로써, 상기 객체 로스를 백프로파게이션하여 상기 제2 1x1 컨벌루션 레이어, 상기 제1 1x1 컨벌루션 레이어, 및 상기 컨벌루션 레이어 중 적어도 일부의 파라미터를 학습한 상태에서, (I) (i) 상기 컨벌루션 레이어로 하여금 적어도 하나의 테스트 이미지 상에서 테스트용 ROI의 영역을 크롭(Crop)하고 리사이즈(Resize)하여 생성된 각각의 테스트용 ROI 이미지에 대하여 컨벌루션 연산을 적어도 한 번 적용하여 적어도 하나의 테스트용 객체에 대응되는 적어도 하나의 상기 테스트용 ROI 별 테스트용 ROI 특징 맵을 생성하도록 하고, (ii) (ii-1) 상기 풀링 레이어로 하여금 상기 테스트용 ROI 특징 맵에 대하여 풀링 연산을 적어도 한 번 적용하도록 하여 상기 테스트용 ROI 별 테스트용 풀링된 특징 맵을 생성하도록 하며, 상기 제1 트랜스포징 레이어(Transposing Layer)로 하여금 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 픽셀을 상기 테스트용 ROI 별로 컨캐터네이팅(Concatenating)하도록 하여 테스트용 통합 특징 맵(Integrated Feature Map)을 생성하도록 하거나, (ii-2) 상기 풀링 레이어로 하여금 상기 테스트용 ROI 특징 맵에 대하여 풀링 연산을 적용하도록 하여 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵을 생성하도록 하고, 상기 풀링 레이어로 하여금 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵 상의 대응하는 동일한 각각의 위치의 각각의 상기 픽셀을 상기 테스트용 ROI 별로 컨캐터네이팅하도록 하여 상기 테스트용 통합 특징 맵을 생성하도록 하는 프로세스, (II) 상기 제1 1x1 컨벌루션 레이어로 하여금 상기 테스트용 통합 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨(Volume)이 조정된 테스트용 제1 조정 특징 맵(Adjusted Feature Map)을 생성하도록 하며, 상기 제2 1x1 컨벌루션 레이어로 하여금 상기 테스트용 제1 조정 특징 맵에 대하여 1x1 컨벌루션 연산을 적용하도록 하여 볼륨이 조정된 테스트용 제2 조정 특징 맵을 생성하도록 하는 프로세스, 및 (III) (i) 상기 제2 트랜스포징 레이어로 하여금 상기 테스트용 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 테스트용 ROI 별 테스트용 픽셀별 특징 맵(Pixel-Wise Feature Map)을 생성하도록 하며, 상기 분류 레이어로 하여금 상기 테스트용 ROI 별 상기 테스트용 픽셀별 특징 맵을 이용하여 상기 테스트용 ROI 각각에 대한 테스트용 객체 정보를 생성하도록 하거나, (ii) 상기 분류 레이어로 하여금 상기 테스트용 제2 조정 특징 맵을 상기 픽셀 별로 분리하도록 하여 상기 테스트용 ROI 별 상기 테스트용 픽셀별 특징 맵을 생성하도록 하고, 상기 분류 레이어로 하여금 상기 테스트용 ROI 별 상기 테스트용 픽셀별 특징 맵을 이용하여 상기 테스트용 ROI 각각에 대한 상기 테스트용 객체 정보를 생성하도록 하는 프로세스를 수행하기 위한 상기 인스트럭션을 실행하도록 구성된 적어도 하나의 프로세서;
    를 포함하는 것을 특징으로 하는 테스트 장치.
  17. 제 16 항에 있어서,
    상기 테스트용 ROI의 개수를 N이라 하며, 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵의 너비를 M1, 높이를 M2라 하고, 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵의 채널 개수를 J라 할 경우,
    상기 (I) 프로세스에서,
    상기 프로세서는, (i) 상기 제1 트랜스포징 레이어로 하여금 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵을 너비 1, 높이 N, 채널 M1xM2xJ인 상기 테스트용 통합 특징 맵으로 변환시키도록 하거나, (ii) 상기 풀링 레이어로 하여금 상기 테스트용 ROI 별 상기 테스트용 풀링된 특징 맵을 너비 1, 높이 N, 채널 M1xM2xJ인 상기 테스트용 통합 특징 맵으로 변환시키도록 하는 것을 특징으로 하는 테스트 장치.
  18. 제 17 항에 있어서,
    상기 제1 1x1 컨벌루션 레이어의 필터의 개수를 K라 하고, 상기 제2 1x1 컨벌루션 레이어의 필터의 개수를 L이라 할 경우,
    상기 (II) 프로세스에서,
    상기 프로세서는, 상기 제1 1x1 컨벌루션 레이어로 하여금 너비 N, 높이 1, 채널 K인 Nx1xK의 볼륨을 가지는 상기 테스트용 제1 조정 특징 맵을 생성하도록 하며, 상기 제2 1x1 컨벌루션 레이어로 하여금 너비 N, 높이 1, 채널 L인 Nx1xL의 볼륨을 가지는 상기 테스트용 제2 조정 특징 맵을 생성하도록 하는 것을 특징으로 하는 테스트 장치.
  19. 제 18 항에 있어서,
    상기 (III) 프로세스에서,
    상기 프로세서는, (i) 상기 제2 트랜스포징 레이어로 하여금 상기 테스트용 제2 조정 특징 맵을, N개의 테스트용 ROI 각각에 대응하는 너비 1, 높이 1, 채널 L인 1x1xL의 볼륨을 가지는 상기 테스트용 ROI 별 상기 테스트용 픽셀별 특징 맵으로 변환하도록 하거나, (ii) 상기 분류 레이어로 하여금 상기 테스트용 제2 조정 특징 맵을, 상기 N개의 테스트용 ROI 각각에 대응하는 너비 1, 높이 1, 채널 L인 1x1xL의 볼륨을 가지는 상기 테스트용 ROI 별 상기 테스트용 픽셀별 특징 맵으로 변환하도록 하는 것을 특징으로 하는 테스트 장치.
  20. 제 16 항에 있어서,
    상기 분류 레이어는 적어도 하나의 소프트맥스(Softmax) 알고리즘을 사용하는 것을 특징으로 하는 테스트 장치.
KR1020190147084A 2019-01-23 2019-11-15 하드웨어 최적화에 사용되는 이미지 인식을 위한 1x1 컨벌루션을 이용한 CNN 학습 방법 및 학습 장치, 이를 이용한 테스트 방법 및 테스트 장치 KR102338765B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/254,928 2019-01-23
US16/254,928 US10387753B1 (en) 2019-01-23 2019-01-23 Learning method and learning device for convolutional neural network using 1×1 convolution for image recognition to be used for hardware optimization, and testing method and testing device using the same

Publications (2)

Publication Number Publication Date
KR20200091792A true KR20200091792A (ko) 2020-07-31
KR102338765B1 KR102338765B1 (ko) 2021-12-15

Family

ID=67620896

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190147084A KR102338765B1 (ko) 2019-01-23 2019-11-15 하드웨어 최적화에 사용되는 이미지 인식을 위한 1x1 컨벌루션을 이용한 CNN 학습 방법 및 학습 장치, 이를 이용한 테스트 방법 및 테스트 장치

Country Status (5)

Country Link
US (1) US10387753B1 (ko)
EP (1) EP3686790A1 (ko)
JP (1) JP6964353B2 (ko)
KR (1) KR102338765B1 (ko)
CN (1) CN111476248B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230053746A (ko) * 2021-10-14 2023-04-24 주식회사 램스 딥러닝을 이용한 스핀 코터의 포토레지스트 도포 상태 검사 시스템

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115049830A (zh) * 2019-09-20 2022-09-13 成都芯云微电子有限公司 一种基于矩阵边缘特征元素的图像缩边模型、方法及装置
CN110827297A (zh) * 2019-11-04 2020-02-21 中国科学院自动化研究所 基于改进的条件生成对抗网络的绝缘子分割方法
JP7278202B2 (ja) * 2019-11-27 2023-05-19 富士フイルム株式会社 画像学習装置、画像学習方法、ニューラルネットワーク、及び画像分類装置
CN111652330B (zh) * 2020-08-05 2020-11-13 深圳市优必选科技股份有限公司 图像处理方法、装置、系统、电子设备及可读存储介质
KR20230149121A (ko) * 2022-04-19 2023-10-26 오지큐 주식회사 딥러닝 기반의 분류를 통한 공사 진척도 판단 방법 및 장치

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9418319B2 (en) * 2014-11-21 2016-08-16 Adobe Systems Incorporated Object detection using cascaded convolutional neural networks
US9928410B2 (en) * 2014-11-24 2018-03-27 Samsung Electronics Co., Ltd. Method and apparatus for recognizing object, and method and apparatus for training recognizer
CN106156807B (zh) * 2015-04-02 2020-06-02 华中科技大学 卷积神经网络模型的训练方法及装置
US10410096B2 (en) * 2015-07-09 2019-09-10 Qualcomm Incorporated Context-based priors for object detection in images
US9965719B2 (en) * 2015-11-04 2018-05-08 Nec Corporation Subcategory-aware convolutional neural networks for object detection
US20170124409A1 (en) * 2015-11-04 2017-05-04 Nec Laboratories America, Inc. Cascaded neural network with scale dependent pooling for object detection
US10002313B2 (en) * 2015-12-15 2018-06-19 Sighthound, Inc. Deeply learned convolutional neural networks (CNNS) for object localization and classification
US9858496B2 (en) * 2016-01-20 2018-01-02 Microsoft Technology Licensing, Llc Object detection and classification in images
WO2017139927A1 (en) * 2016-02-17 2017-08-24 Intel Corporation Region proposal for image regions that include objects of interest using feature maps from multiple layers of a convolutional neural network model
US9471836B1 (en) * 2016-04-01 2016-10-18 Stradvision Korea, Inc. Method for learning rejector by forming classification tree in use of training images and detecting object in test images, and rejector using the same
US20180039853A1 (en) * 2016-08-02 2018-02-08 Mitsubishi Electric Research Laboratories, Inc. Object Detection System and Object Detection Method
US10354362B2 (en) * 2016-09-08 2019-07-16 Carnegie Mellon University Methods and software for detecting objects in images using a multiscale fast region-based convolutional neural network
US20190228268A1 (en) * 2016-09-14 2019-07-25 Konica Minolta Laboratory U.S.A., Inc. Method and system for cell image segmentation using multi-stage convolutional neural networks
US10387740B2 (en) * 2016-10-10 2019-08-20 Gyrfalcon Technology Inc. Object detection and recognition apparatus based on CNN based integrated circuits
US10198671B1 (en) * 2016-11-10 2019-02-05 Snap Inc. Dense captioning with joint interference and visual context
CA3043352A1 (en) * 2016-11-15 2018-05-24 Magic Leap, Inc. Deep learning system for cuboid detection
US20180211403A1 (en) * 2017-01-20 2018-07-26 Ford Global Technologies, Llc Recurrent Deep Convolutional Neural Network For Object Detection
US20180336469A1 (en) * 2017-05-18 2018-11-22 Qualcomm Incorporated Sigma-delta position derivative networks
KR101847874B1 (ko) * 2017-06-28 2018-05-25 서경대학교 산학협력단 합성곱 신경망을 이용한 이미지 인식 방법 및 그 기록 매체
US10474908B2 (en) * 2017-07-06 2019-11-12 GM Global Technology Operations LLC Unified deep convolutional neural net for free-space estimation, object detection and object pose estimation
US10733755B2 (en) * 2017-07-18 2020-08-04 Qualcomm Incorporated Learning geometric differentials for matching 3D models to objects in a 2D image
JP7149692B2 (ja) * 2017-08-09 2022-10-07 キヤノン株式会社 画像処理装置、画像処理方法
US10169679B1 (en) * 2017-10-13 2019-01-01 StradVision, Inc. Learning method and learning device for adjusting parameters of CNN by using loss augmentation and testing method and testing device using the same
US9946960B1 (en) * 2017-10-13 2018-04-17 StradVision, Inc. Method for acquiring bounding box corresponding to an object in an image by using convolutional neural network including tracking network and computing device using the same
US10007865B1 (en) * 2017-10-16 2018-06-26 StradVision, Inc. Learning method and learning device for adjusting parameters of CNN by using multi-scale feature maps and testing method and testing device using the same
CN107808138B (zh) * 2017-10-31 2021-03-30 电子科技大学 一种基于FasterR-CNN的通信信号识别方法
US10229346B1 (en) * 2018-09-04 2019-03-12 StradVision, Inc. Learning method, learning device for detecting object using edge image and testing method, testing device using the same
US10223614B1 (en) * 2018-09-04 2019-03-05 StradVision, Inc. Learning method, learning device for detecting lane through classification of lane candidate pixels and testing method, testing device using the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230053746A (ko) * 2021-10-14 2023-04-24 주식회사 램스 딥러닝을 이용한 스핀 코터의 포토레지스트 도포 상태 검사 시스템

Also Published As

Publication number Publication date
JP6964353B2 (ja) 2021-11-10
JP2020119542A (ja) 2020-08-06
EP3686790A1 (en) 2020-07-29
CN111476248B (zh) 2023-09-22
US10387753B1 (en) 2019-08-20
KR102338765B1 (ko) 2021-12-15
CN111476248A (zh) 2020-07-31

Similar Documents

Publication Publication Date Title
KR20200091792A (ko) 하드웨어 최적화에 사용되는 이미지 인식을 위한 1x1 컨벌루션을 이용한 CNN 학습 방법 및 학습 장치, 이를 이용한 테스트 방법 및 테스트 장치
KR102337376B1 (ko) 레인 마스크(Lane Mask)를 사용하여 후처리 없이 입력 이미지에 포함된 하나 이상의 차선을 검출하는 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치
US10430691B1 (en) Learning method and learning device for object detector based on CNN, adaptable to customers' requirements such as key performance index, using target object merging network and target region estimating network, and testing method and testing device using the same to be used for multi-camera or surround view monitoring
JP6857368B2 (ja) Cnn学習方法及び学習装置、これを利用したテスト方法及びテスト装置
US11461653B2 (en) Learning method and learning device for CNN using 1xK or Kx1 convolution to be used for hardware optimization, and testing method and testing device using the same
EP3686800A1 (en) Learning method and learning device for object detector based on cnn using 1xh convolution to be used for hardware optimization, and testing method and testing device using the same
CN111462193B (zh) 用于多摄像机或环绕视图监控的对象检测方法及装置
US10402692B1 (en) Learning method and learning device for fluctuation-robust object detector based on CNN using target object estimating network adaptable to customers' requirements such as key performance index, and testing device using the same
KR102337367B1 (ko) 원거리 검출 또는 군사 목적을 위해, 이미지 컨캐터네이션을 이용한, cnn 기반의 하드웨어 최적화가 가능한 객체 검출기를 학습하는 방법 및 학습 장치, 이를 이용한 테스팅 방법 및 테스팅 장치
KR102326238B1 (ko) 핵심 성능 지수를 만족시킬 수 있는 하드웨어 최적화가 이루어지도록, cnn에서 복수의 블록 내의 입력 이미지로부터 특징을 추출하는 학습 방법 및 학습 장치, 이를 이용한 테스트 방법 및 테스트 장치
US10311336B1 (en) Method and device of neural network operations using a grid generator for converting modes according to classes of areas to satisfy level 4 of autonomous vehicles
KR20200091791A (ko) 하드웨어 최적화에 쓰이는 1x1 컨벌루션을 이용한 CNN 기반의 객체 검출기를 학습하는 방법 및 학습 장치, 이를 이용한 테스트 장치 및 테스트 장치
KR102326278B1 (ko) 자율주행 차량 레벨4를 충족하기 위해 영역의 클래스에 따라 모드를 전환하기 위하여 그리드 생성기를 이용하는 뉴럴 네트워크 연산 방법 및 이를 이용한 장치

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right