KR20180135616A - Structure of deep network and deep learning based visual image recognition system - Google Patents

Structure of deep network and deep learning based visual image recognition system Download PDF

Info

Publication number
KR20180135616A
KR20180135616A KR1020170073860A KR20170073860A KR20180135616A KR 20180135616 A KR20180135616 A KR 20180135616A KR 1020170073860 A KR1020170073860 A KR 1020170073860A KR 20170073860 A KR20170073860 A KR 20170073860A KR 20180135616 A KR20180135616 A KR 20180135616A
Authority
KR
South Korea
Prior art keywords
level feature
feature information
extracting
network
low
Prior art date
Application number
KR1020170073860A
Other languages
Korean (ko)
Other versions
KR102376110B1 (en
Inventor
박상지
배순민
장재호
윤석민
신학철
김준모
김영수
김병주
이예강
Original Assignee
한화에어로스페이스 주식회사
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화에어로스페이스 주식회사, 한국과학기술원 filed Critical 한화에어로스페이스 주식회사
Priority to KR1020170073860A priority Critical patent/KR102376110B1/en
Publication of KR20180135616A publication Critical patent/KR20180135616A/en
Application granted granted Critical
Publication of KR102376110B1 publication Critical patent/KR102376110B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • G06K9/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

A deep learning-based image recognition system according to an embodiment of the present invention comprises: a first network including an input image receiving unit for receiving an input image including an object, a first extracting unit for extracting low-level feature information representing a low-level feature corresponding to the input image, a second extracting unit for extracting middle-level feature information representing a middle-level feature corresponding to the low-level feature information, and a third extracting unit for extracting high-level feature information representing a high-level feature corresponding to the middle-level feature information; a second network including a fourth extraction unit for extracting middle-level feature information representing a middle-level feature corresponding to the low-level feature information extracted by the first extraction unit and a fifth extracting unit for extracting high-level feature information representing a high-level feature corresponding to the middle-level feature information extracted by the fourth extraction unit; and a recognition unit for recognizing an element corresponding to the object using the feature information extracted by the first network and the feature information extracted by the second network.

Description

딥 네트워크 구조 및 딥 러닝 기반 영상 인식 시스템{STRUCTURE OF DEEP NETWORK AND DEEP LEARNING BASED VISUAL IMAGE RECOGNITION SYSTEM}TECHNICAL FIELD [0001] The present invention relates to a deep network structure and a deep learning based image recognition system,

본 발명은 딥 네트워크 구조 및 딥 러닝 기반 영상 인식 시스템에 관한 것으로, 보다 구체적으로, 브랜치드 네트워크(branched network) 구조를 이용하여 모델 앙상블 기법을 구현할 수 있는 딥 네트워크 구조 및 딥 러닝 기반 영상 인식 시스템에 대한 것이다. The present invention relates to a deep network structure and a deep learning based image recognition system, and more particularly, to a deep network structure and a deep learning based image recognition system capable of implementing a model ensemble technique using a branched network structure It is about.

딥 러닝(deep learning), 심층학습(深層學習)은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습(machine learning) 알고리즘의 집합으로 정의되며, 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야라고 이야기할 수 있다.Deep learning and deep learning can be accomplished through a combination of several nonlinear transformation techniques with a high level of abstractions (summarizing core content or functions in large amounts of data or complex data) , Which is a set of machine learning algorithms that can be said to be a field of machine learning that teaches computers to people's minds in a large framework.

어떠한 데이터가 있을 때 이를 컴퓨터가 알아 들을 수 있는 형태(예컨대, 이미지의 경우는 픽셀정보를 열벡터로 표현하는 등)로 표현(representation)하고 이를 학습에 적용하기 위해 많은 연구(어떻게 하면 더 좋은 표현기법을 만들고 또 어떻게 이것들을 학습할 모델을 만들지에 대한)가 진행되고 있으며, 이러한 노력의 결과로 DNN(deep neural networks), CNN(convolutional deep neural networks), DBN(deep belief networks)와 같은 다양한 딥 러닝 기법들이 컴퓨터비젼, 음성인식, 자연어처리, 음성/신호처리 등의 분야에 적용되어 최첨단의 결과들을 보여주고 있다.When there is any data, it is represented by a form that can be understood by the computer (for example, pixel information is represented by a column vector in the case of an image), and many studies As well as how to create models to learn them. As a result of these efforts, we have developed diverse deep networks such as deep neural networks (DNN), convolutional deep neural networks (CNN), and deep belief networks Running techniques are applied to fields such as computer vision, speech recognition, natural language processing, and voice / signal processing, and show cutting-edge results.

이와 같이, 다양한 분야에서 사용되는 딥 네트워크에는 많은 레이어가 포함된다. 2012 년에는 8 계층만을 사용하는 AlexNet 구조가 기존 이미지 인식률을 크게 향상 시켰고, 급속한 기술 개발과 네트워크 구조의 심화로 1000 개가 넘는 네트워크가 발표되었다.Thus, a deep network used in various fields includes many layers. In 2012, the AlexNet architecture, which uses only 8 layers, greatly improved the existing image recognition rate, and more than 1000 networks were announced due to rapid technological development and deepening network structure.

이러한 심층 네트워크는 다양한 영역에서 최고의 성능을 제공하지만, 1000 개가 넘는 계층의 아키텍처 기능으로 인해 학습 및 검증에 많은 메모리와 계산이 필요하다. 최근 몇 년 동안 점점 더 깊고 깊은 네트워크를 사용하는 경향이 강해짐에 따라 고가의 장비를 사용하여 고성능 이미지 인식기를 학습하고 사람의 능력을 초월한 고성능의 이미지 인식기가 개발되었다. While these deep networks provide the best performance in many areas, the architectural capabilities of over 1000 layers require a lot of memory and computation to learn and verify. In recent years, as the tendency to use increasingly deeper and deeper networks has become stronger, high-performance image recognizers have been developed that use expensive equipment to learn high-performance image recognizers and transcend human capabilities.

그러나, 네트워크가 깊어짐에 따라 네트워크에 학습 가능한 매개 변수가 더 많이 포함되므로 상당한 양의 메모리와 파라미터의 수가 과다한 문제가 심각해질 수 있습니다. However, as the network becomes deeper, the network contains more learnable parameters, which can cause a significant amount of memory and the number of parameters to become excessive.

미국 등록특허공보 제953047호U.S. Patent No. 5,030,447

본 발명은 상기한 종래 기술의 문제점을 해결하기 위한 것으로써, 저 레벨 특성에 대응하는 저 레벨 특성 정보를 추출하는 레이어를 공유하되, 중간 레벨 이상의 특성 정보를 추출하는 레이어가 분기되는 브랜치드 네트워크(branched network) 구조를 이용하여 모델 앙상블 기법을 구현함으로써, 메모리와 파라미터 요구치를 감소시킬 수 있는 딥 네트워크 구조 및 딥 러닝 기반 영상 인식 시스템을 제공한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems of the prior art, and it is an object of the present invention to provide a branching network (hereinafter, referred to as " branch " and a deep network based image recognition system capable of reducing memory and parameter requirements by implementing a model ensemble technique using a branched network structure.

또한, 라벨 스무딩(Label smoothing) 기법을 적용하여 정규화함으로써, 네트워크 사이의 상관관계(correlation)를 줄일 수 있다. In addition, the correlation between networks can be reduced by normalizing by applying a label smoothing technique.

본 발명의 일 실시예에 따른 딥 러닝 기반 영상 인식 시스템은 객체를 포함하는 입력 영상을 수신하는 입력 영상 수신부, 상기 입력 영상에 대응하는 저 레벨 특징을 나타내는 저 레벨 특징 정보를 추출하는 제1 추출부, 상기 저 레벨 특징 정보에 대응하는 중간 레벨 특징을 나타내는 중간 레벨 특징 정보를 추출하는 제2 추출부 및 상기 중간 레벨 특징 정보에 대응하는 고 레벨 특징을 나타내는 고 레벨 특징 정보를 추출하는 제3 추출부를 포함하는 제1 네트워크; 상기 제1 추출부에 의해 추출된 상기 저 레벨 특징 정보에 대응하는 중간 레벨 특징을 나타내는 중간 레벨 특징 정보를 추출하는 제4 추출부 및 상기 제4 추출부에 의해 추출된 중간 레벨 특징 정보에 대응하는 고 레벨 특징을 나타내는 고 레벨 특징 정보를 추출하는 제5 추출부를 포함하는 제2 네트워크 및 상기 제1 네트워크에 의해 추출된 특징 정보와 상기 제2 네트워크에 의해 추출된 특징 정보를 이용하여 상기 객체에 대응하는 원소를 인식하는 인식부를 포함한다.The deep learning-based image recognition system according to an embodiment of the present invention includes an input image receiving unit for receiving an input image including an object, a first extracting unit for extracting low-level feature information corresponding to the input image, A second extracting unit for extracting intermediate level feature information indicating an intermediate level feature corresponding to the low level feature information and a third extracting unit for extracting high level feature information indicating a high level feature corresponding to the intermediate level feature information, A first network comprising; A fourth extraction unit for extracting intermediate level feature information representing an intermediate level feature corresponding to the low level feature information extracted by the first extraction unit and a second extraction unit for extracting intermediate level feature information corresponding to the intermediate level feature information extracted by the fourth extraction unit Level feature information indicating a high-level feature, and a fifth extracting unit extracting high-level feature information indicative of a high-level feature, and a feature extraction unit extracting features corresponding to the object using the feature information extracted by the first network and the feature information extracted by the second network And the like.

일 실시예에서, 상기 제1 네트워크 및 상기 제2 네트워크는, 라벨 스무딩(Label smoothing) 기법을 이용하여 상기 특징 정보를 추출할 수 있다. In one embodiment, the first network and the second network may extract the feature information using a label smoothing technique.

본 발명의 일 실시형태에 의하면, 저 레벨 특성에 대응하는 저 레벨 특성 정보를 추출하는 레이어를 공유하되, 중간 레벨 이상의 특성 정보를 추출하는 레이어가 분기되는 브랜치드 네트워크(branched network) 구조를 이용하여 모델 앙상블 기법을 구현함으로써, 공간적 메모리의 점유율과 학습 속도를 감소시킬 수 있는 효과가 있다. According to an embodiment of the present invention, a branched network structure in which a layer for extracting low-level characteristic information corresponding to a low-level characteristic is shared and a layer for extracting characteristic information at an intermediate level or higher is branched is used By implementing the model ensemble technique, it is possible to reduce the occupancy rate and learning speed of the spatial memory.

또한, 라벨 스무딩(Label smoothing) 기법을 적용하여 정규화함으로써, 네트워크 사이의 상관관계(correlation)를 줄일 수 있다. In addition, the correlation between networks can be reduced by normalizing by applying a label smoothing technique.

도 1 및 도 2는 일 실시예에 따라 입력 영상을 저레벨 특징(low level feature), 중간레벨 특징(mid level feature), 및 고레벨 특징(high level feature)으로 추상화하여 인식 및 검증하는 구조를 설명하기 위한 도면이다.
도 3은 본 발명에 따른 딥 러닝 기반 영상 인식 시스템의 일 실시예를 설명하기 위한 구성도이다.
도 4는 도 3에 도시된 딥 러닝 기반 영상 인식 시스템의 네트워크 구조의 일 실시예를 설명하기 위한 구성도이다.
도 5는 도 3에 도시된 딥 러닝 기반 영상 인식 시스템의 네트워크 구조의 다른 일 실시예를 설명하기 위한 구성도이다.
도 6은 원-핫(one-hot) 벡터 인코딩 기법과 라벨 스무딩 기법을 설명하기 위한 그래프이다.
Figures 1 and 2 illustrate a structure for abstracting and recognizing and validating an input image as a low level feature, a mid level feature, and a high level feature according to an embodiment FIG.
FIG. 3 is a block diagram for explaining an embodiment of a deep learning-based image recognition system according to the present invention.
FIG. 4 is a block diagram illustrating a network structure of the deep learning-based image recognition system shown in FIG. 3. Referring to FIG.
FIG. 5 is a block diagram for explaining another embodiment of the network structure of the deep learning-based image recognition system shown in FIG.
6 is a graph for explaining a one-hot vector encoding technique and a label smoothing technique.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

또한, 본 명세서에서 기술하는 실시예들은 본 발명의 이상적인 예시도인 단면도 및/또는 개략도들을 참고하여 설명될 것이다. 따라서, 제조 기술 및/또는 허용 오차 등에 의해 예시도의 형태가 변형될 수 있다. 또한 본 발명에 도시된 각 도면에 있어서 각 구성 요소들은 설명의 편의를 고려하여 다소 확대 또는 축소되어 도시된 것일 수 있다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭하며, "및/또는"은 언급된 아이템들의 각각 및 하나 이상의 모든 조합을 포함한다.Further, the embodiments described herein will be described with reference to cross-sectional views and / or schematic drawings that are ideal illustrations of the present invention. Thus, the shape of the illustrations may be modified by manufacturing techniques and / or tolerances. In addition, in the drawings of the present invention, each component may be somewhat enlarged or reduced in view of convenience of explanation. Like reference numerals refer to like elements throughout the specification and "and / or" include each and every combination of one or more of the mentioned items.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예의 구성을 상세히 설명하기로 한다.Hereinafter, the configuration of a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

이하, 본 명세서에서, 딥 러닝(Deep learning)은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions)를 시도하는 기계학습(machine learning) 알고리즘의 집합을 나타낼 수 있다. 예를 들어, 딥러닝은 사람의 사고방식을 컴퓨터에게 가르치는 기계학습을 나타낼 수 있다. 여기서, 추상화는 복수의 데이터들로부터 핵심적인 데이터를 추출하는 작업을 나타낼 수 있다.Hereinafter, Deep learning may represent a set of machine learning algorithms that attempt a high level of abstractions through a combination of various nonlinear transformation techniques. For example, deep learning can represent machine learning that teaches computers how people think. Here, the abstraction can represent an operation of extracting core data from a plurality of data.

도 1 및 도 2는 일 실시예에 따라 입력 영상을 저레벨 특징(low level feature), 중간레벨 특징(mid level feature), 및 고레벨 특징(high level feature)으로 추상화하여 인식 및 검증하는 구조를 설명하기 위한 도면이다. Figures 1 and 2 illustrate a structure for abstracting and recognizing and validating an input image as a low level feature, a mid level feature, and a high level feature according to an embodiment FIG.

도 1에 도시된 딥 러닝 구조(100)는 입력 영상(101)을 순차적으로 복수의 레벨들에 대응하는 특징들을 이용하여 추상화할 수 있다. 예를 들어, 도 1의 딥 러닝 구조(100)는 입력 영상(101)을 저레벨 특징(110), 중간레벨 특징(120), 및 고레벨 특징(130)을 이용하여 추상화할 수 있다.The deep learning structure 100 shown in FIG. 1 can abstract the input image 101 sequentially using features corresponding to a plurality of levels. For example, the deep-running structure 100 of FIG. 1 may abstract the input image 101 using a low-level feature 110, an intermediate-level feature 120, and a high-level feature 130.

여기서, 특징은 복수의 데이터들(예를 들어, 트레이닝 영상)이 추상화되어 학습된 핵심적인 데이터를 나타낼 수 있다. 예를 들어, 본 명세서에서 특징은 임의의 영상이 추상화되어 학습된 특징 영상(feature image)을 포함할 수 있다. 특징 영상은, 트레이닝 영상(training image)에 대해 미리 정한 크기의 미리 정한 개수의 필터들을 이용하여 컨볼루션 필터링(convolution filtering)을 수행하여 생성된, 영상으로서 학습될 수 있다. 학습된 특징 영상의 개수는 상술한 필터들의 개수에 대응할 수 있다.Here, the feature may represent a core data in which a plurality of data (e.g., a training image) is abstracted and learned. For example, in the present specification, a feature may include a feature image in which any image is abstracted and learned. The feature image may be learned as an image generated by performing convolution filtering using a predetermined number of filters of a predetermined size with respect to a training image. The number of learned feature images may correspond to the number of the filters described above.

예를 들어, 도 1에서 저레벨 특징(110)은 저레벨 특징 영상들(111) 중 하나를 이용하여 표현될 수 있고, 중간레벨 특징(120)은 중간레벨 특징 영상들(121) 중 하나를 이용하여 표현될 수 있으며, 고레벨 특징(130)은 고레벨 특징 영상들(131) 중 하나를 이용하여 표현될 수 있다. 저레벨 특징 영상들(111)은 트레이닝 영상에 대해 컨볼루션 필터링이 수행되어 학습된 영상들, 중간레벨 특징 영상들(121)은 저레벨 특징 영상들(111)에 대해 다른 컨볼루션 필터링이 수행되어 학습된 영상들, 고레벨 특징 영상들(131)은 중간레벨 특징 영상들(121)에 대해 또 다른 컨볼루션 필터링이 수행되어 학습된 영상들을 나타낼 수 있다.For example, in FIG. 1, the low-level feature 110 may be represented using one of the low-level feature images 111 and the intermediate-level feature 120 may be represented using one of the intermediate- And the high-level feature 130 may be represented using one of the high-level feature images 131. The low-level feature images 111 are subjected to convolution filtering on the training images, and the intermediate-level feature images 121 are subjected to different convolution filtering on the low-level feature images 111, Images, and high-level feature images 131 may be subjected to another convolution filtering on the intermediate-level feature images 121 to display the learned images.

도 1에 도시된 딥 러닝 구조(100)에서 입력 영상(101)이 추상화된 결과는 각 레벨에 대응하는 특징들로부터 입력 영상(101)에 대응하는 특징을 지시하는 특징 정보로 나타낼 수 있다. 예를 들어, 특징 정보는 임의의 특징영상을 지시하는 특징 값(feature value)을 포함할 수 있다. 딥 러닝 구조(100)는 각 레벨에 대응하는 기 학습된 레이어(layer)를 이용하여, 각 레벨에 대응하는 특징 정보를 추출할 수 있다.The result of abstracting the input image 101 in the deep learning structure 100 shown in FIG. 1 may be expressed as feature information indicating a feature corresponding to the input image 101 from the features corresponding to the respective levels. For example, the feature information may include a feature value indicating an arbitrary feature image. The deep learning structure 100 can extract feature information corresponding to each level using a pre-learned layer corresponding to each level.

예를 들어, 도 1에서 딥 러닝 구조(100)는 입력 영상(101)에 대응하는 저레벨 특징(110)을 나타내는 저레벨 특징 정보를 추출하고, 저레벨 특징 정보에 대응하는 중간레벨 특징(120)을 나타내는 중간레벨 특징 정보를 추출하며, 중간레벨 특징 정보에 대응하는 고레벨 특징(130)을 나타내는 고레벨 특징 정보를 추출할 수 있다.For example, in Figure 1, the deep-running structure 100 may be used to extract low-level feature information representing a low-level feature 110 corresponding to an input image 101 and to represent intermediate level features 120 corresponding to low- It is possible to extract the intermediate level feature information and extract the high level feature information indicating the high level feature 130 corresponding to the intermediate level feature information.

도 1에 도시된 구조(100)에서 인식/검증을 수행하는 모듈(140)은 각 레벨에서 순차적으로 추상화 과정을 거쳐, 마지막 레벨의 특징 정보를 활용하여 인식 및 검증을 수행할 수 있다. 예를 들어, 도 1에서는 고레벨 특징(130)을 나타내는 고레벨 특징 정보만을 이용하여 인식 및 검증을 수행될 수 있다. 이 경우, 저레벨 특징 정보 및 중간레벨 특징 정보가 손실될 수 있다.In the structure 100 shown in FIG. 1, the module for performing recognition / verification 140 may sequentially perform an abstracting process at each level and perform recognition and verification using feature information of the last level. For example, in FIG. 1, recognition and verification may be performed using only the high-level feature information indicating the high-level feature 130. FIG. In this case, the low-level feature information and the intermediate level feature information may be lost.

도 2에 도시된 일 실시예에 따른 딥 러닝 구조(200)에서는 인식/검증을 수행하는 모듈(240)이 모든 레벨에 대응하는 특징 정보를 이용하여 인식 및 검증을 수행할 수 있다. 예를 들어, 도 2에서 인식/검증을 수행하는 모듈(240)은 저레벨 특징 정보, 중간레벨 특징 정보, 및 고레벨 특징 정보를 이용하여 입력 영상(101)에 대한 인식 및 검증을 수행할 수 있다. 다만, 도 2에서는 3개의 레벨(예를 들어, 저레벨, 중간레벨, 고레벨)로 예시적으로 설명하였으나, 이하에서는 영상의 특징이 적어도 2개 이상의 레벨로 추상화될 수 있다. 상술한 바와 같이, 각각의 레이어에서 출력되는 모든 특징 정보을 활용함으로써, 영상에 대한 인식률 및 검증률이 확보될 수 있다.2, the module 240 for performing recognition / verification can perform recognition and verification using feature information corresponding to all levels. For example, the module 240 performing recognition / verification in FIG. 2 may perform recognition and verification of the input image 101 using low-level feature information, intermediate-level feature information, and high-level feature information. In FIG. 2, three levels (for example, low level, middle level, and high level) have been exemplarily described. In the following description, the characteristics of an image may be abstracted into at least two levels. As described above, by utilizing all feature information output from each layer, a recognition rate and a verification rate for an image can be secured.

일 실시예에 따른 딥 러닝 구조(200)는 다양한 입력 영상(101)을 인식 및 검증하는데 적용될 수 있다. 예를 들어, 입력 영상(101)은 객체와 연관된 영상(예를 들어, 객체의 형상을 나타내는 영상)을 포함할 수 있다. 객체는 영상의 관심 영역(ROI, region of interest) 내에 포함되는 사람(예를 들어, 사람의 얼굴, 신체 등), 동물 및 사물 등을 나타낼 수 있다. 예를 들어, 일 실시예에 따른 딥 러닝 구조(200)는 사람의 얼굴을 인식하여 사용자를 인식 및 인증하는데 사용될 수 있다. 또한, 딥 러닝 구조(200)는 방대한 양의 컨텐츠(예를 들어, 사진, 동영상 등의 멀티미디어)를 자동으로 검색 및 관리하는데 사용될 수 있다.The deep running structure 200 according to one embodiment can be applied to recognize and verify various input images 101. [ For example, the input image 101 may include an image associated with the object (e.g., an image representing the shape of the object). An object may represent a person (e.g., a person's face, body, etc.), an animal, or an object that is contained within a region of interest (ROI) of the image. For example, the deep-running structure 200 according to one embodiment can be used to recognize a person's face and recognize and authenticate the user. Also, the deep learning structure 200 can be used to automatically search for and manage vast amounts of content (e.g., multimedia such as photos, videos, etc.).

상술한 딥 러닝 구조(200)는 소프트웨어 형태로 구현되거나 칩(chip)과 같은 하드웨어 형태로 구현되어, 전자기기에 탑재될 수 있다. 예를 들어, 전자 기기는 모바일 기기(예를 들어, 핸드폰, 스마트폰 등) 및 가전 기기(예를 들어, TV 등) 등을 포함할 수 있다.The deep learning structure 200 may be implemented in software or hardware such as a chip, and may be mounted on an electronic device. For example, the electronic device may include a mobile device (e.g., a mobile phone, a smart phone, etc.) and a home appliance (e.g., a TV, etc.).

딥 러닝 구조(200)는 영상을 인식하는 장치 및 영상을 검증하는 장치에 적용될 수 있다. 영상을 인식하는 장치 및 영상을 검증하는 장치는 트레이닝 데이터를 이용하여 학습될 수 있다. 트레이닝 데이터는 트레이닝 객체와 연관된 트레이닝 영상, 트레이닝 원소, 및 트레이닝 정보 등을 포함할 수 있다.The deep running structure 200 can be applied to an apparatus for recognizing an image and an apparatus for verifying an image. A device for recognizing an image and a device for verifying an image can be learned using training data. The training data may include training images, training elements, and training information associated with the training objects.

예를 들어, 영상을 인식하는 장치의 학습을 위한 트레이닝 데이터는 트레이닝 영상 및 트레이닝 영상과 연관된 트레이닝 원소를 포함할 수 있다. 영상을 인식하는 장치는 트레이닝 영상으로부터 트레이닝 원소가 출력되도록 학습될 수 있다. 여기서, 트레이닝 원소는 해당 트레이닝 영상에 포함된 트레이닝 객체를 지시하는 값일 수 있다. For example, training data for learning of an image recognizing device may include training images and training elements associated with the training images. An apparatus for recognizing an image can be learned such that a training element is output from a training image. Here, the training element may be a value indicating a training object included in the training image.

다른 예를 들어, 영상을 검증하는 장치의 학습을 위한 트레이닝 데이터는 트레이닝 영상 쌍 및 트레이닝 정보를 포함할 수 있다. 영상을 검증하는 장치는 트레이닝 영상 쌍으로부터 트레이닝 정보가 출력되도록 학습될 수 있다. 여기서, 트레이닝 정보는 해당 트레이닝 영상 쌍이 동일한 트레이닝 객체를 포함하는지 여부를 나타내는 값일 수 있다. For another example, the training data for learning of the apparatus for verifying an image may include training image pairs and training information. An apparatus for verifying an image can be learned such that training information is output from a pair of training images. Here, the training information may be a value indicating whether the corresponding training image pair includes the same training object.

일 실시예에 따르면 딥 러닝 구조는 인공 뉴럴 네트워크 (artificial neural network)를 포함할 수 있으며, 예를 들어 딥 콘볼루셔널 뉴럴 네트워크 (Deep Convolutional Neural Network, DCNN)로 구성될 수 있다. According to one embodiment, the deep-running structure may include an artificial neural network, for example, a Deep Convolutional Neural Network (DCNN).

뉴럴 네트워크는 입력 레이어, 히든 레이어, 및 출력 레이어를 포함할 수 있다. 각 레이어는 복수의 노드들을 포함하고, 인접한 레이어 사이의 노드들은 연결 가중치를 가지고 서로 연결될 수 있다. 각 노드들은 활성화 모델에 기초하여 동작할 수 있다. 활성화 모델에 따라 입력 값에 대응하는 출력 값이 결정될 수 있다. 임의의노드의 출력 값은 해당 노드와 연결된 다음 레이어의 노드로 입력될 수 있다. 다음 레이어의 노드는 복수의 노드들로부터 출력되는 값들을 입력 받을 수 있다. 임의의 노드의 출력 값이 다음 레이어의 노드로 입력되는 과정에서, 연결 가중치가 적용될 수 있다. 다음 레이어의 노드는 활성화 모델에 기초하여 입력 값에 대응하는 출력 값을 해당 노드와 연결된 그 다음 레이어의 노드로 출력할 수 있다.A neural network may include an input layer, a hidden layer, and an output layer. Each layer includes a plurality of nodes, and nodes between adjacent layers can be connected to each other with connection weights. Each node may operate based on an activation model. The output value corresponding to the input value can be determined according to the activation model. The output value of an arbitrary node can be input to the node of the next layer connected to that node. A node of the next layer can receive values output from a plurality of nodes. In the process of inputting the output value of an arbitrary node to the node of the next layer, a connection weight can be applied. The node of the next layer can output the output value corresponding to the input value to the node of the next layer connected to the node based on the activation model.

출력 레이어는 복수의 원소들에 대응하는 노드들을 포함할 수 있다. 출력 레이어의 노드들은 복수의 원소들에 대응하는 특징값들을 출력할 수 있다. 아래에서 상세하게 설명하겠으나, 뉴럴 네트워크에서 출력되는 특징값들은 복수의 원소들을 위한 선형 분류기들을 통하여 원소들로 변환될 수 있다.The output layer may include nodes corresponding to a plurality of elements. The nodes of the output layer can output characteristic values corresponding to a plurality of elements. As will be described in detail below, the feature values output from the neural network can be transformed into elements through linear classifiers for a plurality of elements.

도 3은 본 발명에 따른 딥 러닝 기반 영상 인식 시스템의 일 실시예를 설명하기 위한 구성도이며, 도 4는 도 3에 도시된 딥 러닝 기반 영상 인식 시스템의 네트워크 구조의 일 실시예를 설명하기 위한 구성도이다.FIG. 3 is a block diagram for explaining an embodiment of a deep learning-based image recognition system according to the present invention. FIG. 4 is a block diagram for explaining an embodiment of a deep learning- FIG.

도 3을 참조하면, 본 발명의 일 실시예에 따른 딥 러닝 기반 영상 인식 시스템은 입력 영상 수신부(310), 제1 네트워크(320), 제2 네트워크(330) 및 인식부(340)를 포함할 수 있다. 3, the deep learning-based image recognition system according to an embodiment of the present invention includes an input image receiving unit 310, a first network 320, a second network 330, and a recognition unit 340 .

입력 영상 수신부(310)는 객체를 포함하는 입력 영상을 수신할 수 있다. 여기서, 입력 영상은 전처리된 영상일 수 있다. 여기서, 전처리된 영상은 임의의 영상이 미리 정한 크기, 미리 정한 해상도, 해당 영상 내 객체와 배경 간의 비율(여기서, 배경은 영상 내에서 객체를 나타내는 부분을 제외한 부분)을 가지도록 처리된 영상을 나타낼 수 있다.The input image receiving unit 310 may receive an input image including an object. Here, the input image may be a preprocessed image. Here, the preprocessed image represents an image processed so that an arbitrary image has a predetermined size, a predetermined resolution, and a ratio between the object and the background in the image (where the background is a portion excluding an object in the image) .

제1 네트워크(320)와 제2 네트워크(330)는 딥 네트워크의 성능을 향상시키기 위해 모델 앙상블 기법을 구현하기 위한 것으로, 제1 네트워크(320)와 제2 네트워크(330)는 각각 서로 다른 초기값으로 학습될 수 있다. The first network 320 and the second network 330 are for implementing a model ensemble technique to improve the performance of the DIP network. The first network 320 and the second network 330 may have different initial values . ≪ / RTI >

제1 네트워크(320)는 저 레벨 특징을 추출하는 제1 추출부(321), 중간 레벨 특징을 추출하는 제2 추출부(322) 및 고 레벨 특징을 추출하는 제3 추출부(323)를 포함할 수 있다. The first network 320 includes a first extracting unit 321 for extracting a low level feature, a second extracting unit 322 for extracting an intermediate level feature, and a third extracting unit 323 for extracting a high level feature can do.

제1 추출부(321)는 입력 영상 수신부(310)를 통해 입력되는 입력 영상에서 저 레벨 특징을 나타내는 저 레벨 특징 정보를 추출할 수 있다. 여기서, 저 레벨 특징은 이미지를 이루는 가장 기본적인 원소인 에지(edge)나 블롭(blob)와 같은 특징점일 수 있다. 제1 추출부(321)는, 도 4에서와 같이, 저 레벨 특징 정보를 추출하기 위한 복수개의 컨볼루션 레이어(convolution layer)를 포함할 수 있으며, 입력 영상 수신부(310)와 연결되는 레이어로부터 상위 레이어로 갈수록 보다 고차원의 특징에 대응되는 특징 정보를 추출할 수 있다. The first extracting unit 321 can extract low-level feature information indicating a low-level feature from an input image input through the input image receiving unit 310. [ Here, the low-level feature may be a feature point such as an edge or a blob, which is the most basic element forming an image. 4, the first extracting unit 321 may include a plurality of convolution layers for extracting low-level feature information, and may include a convolution layer for extracting low-level feature information from a layer connected to the input image receiving unit 310, The feature information corresponding to the higher dimensional feature can be extracted as the layer moves.

제2 추출부(322)는 상기 입력 영상에서, 제1 추출부(321)에 의해 추출된 저 레벨 특징에 대응하는 중간 레벨 특징을 나타내는 중간 레벨 특징 정보를 추출할 수 있다. 여기서, 중간 레벨 특징 정보는 복수의 중간 레벨 특징들 중 임의의 저 레벨 특징 정보에 대응하는 적어도 하나의 중간 레벨 특징을 나타내는 특정 값(feature value)을 나타낼 수 있다. 여기서, 중간 레벨 특징은 저 레벨 특징이 추상화되어 학습된 특징 영상을 포함할 수 있다. 제2 추출부(322)는 중간 레벨 특징 정보를 추출하기 위한 복수개의 컨볼루션 레이어를 포함할 수 있다. The second extracting unit 322 can extract the intermediate level feature information indicating the intermediate level feature corresponding to the low level feature extracted by the first extracting unit 321 in the input image. Wherein the intermediate level feature information may represent a feature value representing at least one intermediate level feature corresponding to any of the plurality of intermediate level features. Here, the intermediate level feature may include a learned feature image in which the low level feature is abstracted. The second extracting unit 322 may include a plurality of convolution layers for extracting intermediate level feature information.

제3 추출부(323)는 상기 입력 영상에서, 제2 추출부(322)에 의해 추출된 중간 레벨 특징에 대응하는 고 레벨 특징을 나타내는 고 레벨 특징 정보를 추출할 수 있다. 여기서, 고 레벨 특징 정보는 복수의 고 레벨 특징들 중 임의의 중간 레벨 특징 정보에 대응하는 적어도 하나의 고 레벨 특징을 나타내는 특정 값(feature value)을 나타낼 수 있다. 여기서, 고 레벨 특징은 중간 레벨 특징이 추상화되어 학습된 특징 영상을 포함할 수 있다. 또한, 제3 추출부(323)는 고 레벨 특징 정보를 추출하기 위한 복수개의 컨볼루션 레이어를 포함할 수 있다. The third extracting unit 323 may extract high-level feature information indicating a high-level feature corresponding to the intermediate level feature extracted by the second extracting unit 322 in the input image. Here, the high-level feature information may represent a feature value representing at least one high-level feature corresponding to any of the plurality of high-level features. Here, the high level feature may include the learned feature image in which the intermediate level feature is abstracted. In addition, the third extracting unit 323 may include a plurality of convolution layers for extracting high-level feature information.

제2 네트워크(330)는 제1 네트워크(320)의 제1 추출부(321)에 의해 추출된 저 레벨 특징 정보를 이용하여 중간 레벨 특징 정보 및 고 레벨 특징 정보를 추출할 수 있다. 즉, 제2 네트워크(330)는, 도 4에서와 같이, 제1 네트워크(320)와 제1 추출부(321)를 공유하는 구조로 형성될 수 있다. 다시 말하면, 제1 네트워크(320)와 제2 네트워크(330)는 저 레벨 특징 정보를 추출하는 제1 추출부(321)를 공유할 수 있으며, 중간 레벨 이상의 지점에서 분기될 수 있다. 이에 따라 하나의 입력 영상에 대한 다수의 출력을 얻기 위해 필요한 메모리와 파라미터의 수를 줄일 수 있는 효과가 있다. The second network 330 may extract the intermediate level feature information and the high level feature information using the low level feature information extracted by the first extracting unit 321 of the first network 320. [ That is, as shown in FIG. 4, the second network 330 may have a structure in which the first network 320 and the first extracting unit 321 are shared. In other words, the first network 320 and the second network 330 may share the first extracting unit 321 for extracting low-level feature information, and may be branched at a mid-level or higher. Accordingly, it is possible to reduce the number of memories and parameters required to obtain a plurality of outputs for one input image.

일 실시예에서, 제2 네트워크(330)는 제4 추출부(332) 및 제5 추출부(334)를 포함할 수 있다. In one embodiment, the second network 330 may include a fourth extractor 332 and a fifth extractor 334.

제4 추출부(332)는 제1 추출부(321)에 의해 추출된 저 레벨 특징 정보에 대응하는 중간 레벨 특징을 나타내는 중간 레벨 정보를 추출할 수 있다. 여기서, 중간 레벨 특징 정보는 복수의 중간 레벨 특징들 중 임의의 저 레벨 특징 정보에 대응하는 적어도 하나의 중간 레벨 특징을 나타내는 특정 값(feature value)을 나타낼 수 있다. 여기서, 제4 추출부(332)는 중간 레벨 특징 정보를 추출하기 위한 복수개의 컨볼루션 레이어를 포함할 수 있다. The fourth extracting unit 332 can extract the intermediate level information indicating the intermediate level feature corresponding to the low level feature information extracted by the first extracting unit 321. [ Wherein the intermediate level feature information may represent a feature value representing at least one intermediate level feature corresponding to any of the plurality of intermediate level features. Here, the fourth extracting unit 332 may include a plurality of convolution layers for extracting intermediate level feature information.

제5 추출부(334)는 제4 추출부(3320)에 의해 추출된 중간 레벨 특징 정보에 대응하는 고 레벨 특징을 나타내는 고 레벨 정보를 추출할 수 있다. 고 레벨 특징 정보는 복수의 고 레벨 특징들 중 임의의 중간 레벨 특징 정보에 대응하는 적어도 하나의 고 레벨 특징을 나타내는 특정 값(feature value)을 나타낼 수 있다. 여기서, 고 레벨 특징은 중간 레벨 특징이 추상화되어 학습된 특징 영상을 포함할 수 있다. 여기서, 제5 추출부(334)는 고 레벨 특징 정보를 추출하기 위한 복수개의 컨볼루션 레이어를 포함할 수 있다. The fifth extracting unit 334 may extract high level information indicating a high level feature corresponding to the intermediate level feature information extracted by the fourth extracting unit 3320. The high level feature information may represent a feature value representing at least one high level feature corresponding to any of the plurality of high level features. Here, the high level feature may include the learned feature image in which the intermediate level feature is abstracted. Here, the fifth extracting unit 334 may include a plurality of convolution layers for extracting high-level feature information.

일 실시예에서, 제1 추출부(321) 내지 제5 추출부(334)는, 도 4에서와 같이, 컨볼루션 레이어(convolution layer) 및 풀링 레이어(pooling layer)를 포함할 수 있다. In one embodiment, the first extracting unit 321 to the fifth extracting unit 334 may include a convolution layer and a pooling layer as shown in FIG.

컨볼루션 레이어는 미리 정한 크기(예컨대, 7 x 7 또는 3 x 3)의 필터를 이용하여 이전 레이어 또는 이전 추출부에서 추출된 정보를 필터링하는 컨볼루션 필터링을 수행하는데 사용될 수 있다. 도 4에서는 "conv."로 도시될 수 있다. 예컨대, 제1 추출부(321)의 컨볼루션 레이어는 미리 정해진 에지를 필터링 할 수 있다. 여기서, 컨볼루션 필터링의 결과로, 컨볼루션 레이어에 포함된 필터의 개수에 따라 필터 개수만큼의 필터링 영상들이 생성될 수 있다. 컨볼루션 레이어는 필터링 영상들에 포함된 노드들로 구성될 수 있다. 컨볼루션 레이어에 포함된 각 노드들은 이전 레이어 또는 이전 추출부의 특징 영상(단, 제1 추출부(621)인 경우에는 입력 영상)의 미리 정한 크기의 영역으로부터 필터링 된 값을 수신할 수 있다. 컨볼루션 레이어에 포함된 각 노드들의 활성화 모델로 ReLU (Rectifier Linear Unit)가 이용될 수 있다. ReLU는 0 이하의 입력에 대하여 0을 출력하고, 0을 초과하는 입력에 대하여 선형으로 비례하는 값을 출력하는 모델이다.The convolution layer can be used to perform convolutional filtering to filter information extracted from the previous layer or previous extractor using a filter of a predetermined size (e.g., 7 x 7 or 3 x 3). In Fig. 4, it can be shown as "conv." For example, the convolution layer of the first extracting unit 321 may filter a predetermined edge. Here, as a result of the convolution filtering, filtering images corresponding to the number of filters can be generated according to the number of filters included in the convolution layer. The convolution layer may consist of the nodes included in the filtered images. Each node included in the convolution layer can receive a filtered value from a region of a predetermined size of a feature image of the previous layer or the previous extractor (in the case of the first extractor 621, the input image). ReLU (Rectifier Linear Unit) can be used as an activation model of each node included in the convolution layer. ReLU is a model that outputs 0 for inputs below 0 and outputs a linearly proportional value for inputs beyond 0.

풀링 레이어(pooling layer)는, 풀링을 통하여, 이전 레이어의 특징 영상들로부터 대표 값들을 추출하는데 사용될 수 있다. 도 4에서는 "pool"로 도시될 수 있다. 여기서, 플링 레이어는 max pooling, average pooling 또는 stochastic pooling 중 어느 하나일 수 있다. 일 실시예에서, 제1 추출부(321)의 풀링 레이어는 max pooling을 사용할 수 있으며, 제3 추출부(323) 및 제5 추출부(334)의 풀링 레이어는 average pooling을 사용할 수 있다. 풀링 결과 특징 영상들 별로 풀링 영상들이 생성될 수 있다. 풀링 레이어는 풀링 영상들에 포함된 노드들로 구성될 수 있다. 풀링 레이어에 포함된 각 노드들은 대응하는 특징 영상의 크기의 영역으로부터 풀링 된 값을 수신할 수 있다. 예를 들어, 제1 추출부에 포함된 풀링 레이어는 필터링된 입력 영상에 대응하는 정보로부터 대표 값들을 추출할 수 있다.The pooling layer can be used to extract representative values from feature images of the previous layer through pooling. It can be shown as "pool" in FIG. Here, the flipping layer may be any of max pooling, average pooling, or stochastic pooling. In an embodiment, the pooling layer of the first extracting unit 321 may use max pooling, and the pooling layer of the third extracting unit 323 and the fifth extracting unit 334 may use average pooling. Pooling images can be generated for each pool of feature images. The pooling layer may be composed of the nodes included in the pooling images. Each node included in the pooling layer can receive the pooled value from the region of the size of the corresponding feature image. For example, the pulling layer included in the first extracting unit may extract representative values from information corresponding to the filtered input image.

상술한 컨볼루션 레이어 및 풀링 레이어에서 인접한 레이어들 사이의 노드들은 부분적으로 연결되고, 연결 가중치가 공유될 수 있다.In the convolution layer and the pulling layer described above, nodes between adjacent layers are partially connected, and connection weights can be shared.

일 실시예에 따르면, 제2 추출부(322) 및 제4 추출부(332)에 포함된 컨볼루션 레이어의 필터들은 제1 추출부(321)에 포함된 컨볼루션 레이어의 필터들에 비하여 복잡한 에지를 필터링 할 수 있다. 제2 추출부(322) 및 제4 추출부(332)에 포함된 풀링 레이어에서는 풀링을 통하여, 제2 추출부(322) 및 제4 추출부(332)의 컨볼루션 레이어에 의해 필터링된 필터링 영상들(예를 들어, 필터링된 제1 특징 정보)로부터 대표 값들이 추출될 수 있다. 이상과 같이, 제2 추출부(322) 및 제4 추출부(332)에 포함된 레이어들에서는 제1 추출부(321)에 비해 높은 복잡도의 특징 정보들이 추출될 수 있다. 예를 들어, 입력 영상에 대해 중간 레벨에 대응하는 특징 정보들이 추출될 수 있다. (예를 들어, 중간 레벨은 중간 복잡도를 가질 수 있다)The filters of the convolution layer included in the second extracting unit 322 and the fourth extracting unit 332 may have complex edges compared to the filters of the convolution layer included in the first extracting unit 321, Can be filtered. In the pooling layer included in the second extracting unit 322 and the fourth extracting unit 332, the filtered image filtered by the convolution layer of the second extracting unit 322 and the fourth extracting unit 332, (E.g., filtered first feature information) may be extracted. As described above, in the layers included in the second extracting unit 322 and the fourth extracting unit 332, feature information having higher complexity than the first extracting unit 321 can be extracted. For example, the feature information corresponding to the intermediate level may be extracted with respect to the input image. (E. G., The intermediate level may have intermediate complexity)

제3 추출부(323) 및 제5 추출부(334)의 컨볼루션 레이어에서는 미리 정한 크기의 필터들을 이용하여 컨볼루션 필터링이 수행될 수있다. 필터들 각각은 미리 정해진 에지를 필터링 할 수 있다. 제3 추출부(323) 및 제5 추출부(334)의 컨볼루션 레이어의 필터들은 제2 추출부(322) 또는 제4 추출부(332)의 컨볼루션 레이어의 필터들에 비하여 더 복잡한 에지를 필터링 할 수 있다. 예를 들어, 입력 영상에 대해 고 레벨에 대응하는 특징 정보들이 추출될 수 있다. (예를 들어, 고 레벨은 높은 복잡도를 가질 수 있다)Convolution filtering may be performed using filters of a predetermined size in the convolution layer of the third extracting unit 323 and the fifth extracting unit 334. Each of the filters may filter a predetermined edge. The filters of the convolution layer of the third extracting unit 323 and the fifth extracting unit 334 have more complicated edges than the filters of the convolution layer of the second extracting unit 322 or the fourth extracting unit 332 Can be filtered. For example, feature information corresponding to a high level with respect to an input image may be extracted. (E.g., high level may have high complexity)

다만, 추출부의 개수 및 추출부에 포함되는 레이어의 구성 등을 상술한 바로 한정하는 것은 아니고, 설계에 따라 변경될 수 있다.However, the number of extraction units and the structure of the layers included in the extraction unit are not limited to the above-described ones, but may be changed according to the design.

인식부(340)는 제1 네트워크에 의해 추출된 저 레벨 특징 정보, 중간 레벨 특징 정보 및 고 레벨 특징 정보와, 제2 네트워크에 의해 추출된 중간 레벨 특징 정보 및 고 레벨 특징 정보를 이용하여 입력 영상에 포함되는 객체에 대응되는 원소를 인식할 수 있다. 여기서, 입력 영상에 대응하는 원소는 예를 들어, 트레이닝 데이터로부터 기 학습되어 저장된 기준 영상들에 포함된 객체를 나타내는 값을 포함할 수 있다. The recognition unit 340 receives the low level feature information, the intermediate level feature information, and the high level feature information extracted by the first network and the intermediate level feature information and the high level feature information extracted by the second network, Can recognize an element corresponding to an object included in the object. Here, the element corresponding to the input image may include, for example, a value indicating an object included in the reference images that have been learned from the training data and stored.

일 실시예에서, 인식부(630)는 적어도 하나의 레이어를 포함할 수 있고, 예를 들어, 완전 연결 레이어(fully connected layer) 등을 포함할 수 있다(도 4에서는 "FULLY CON"으로 도시됨). 완전 연결 레이어에서 인접한 레이어들 사이의 노드들은 완전 연결되고, 연결 가중치가 개별적으로 설정될 수 있다. 예를 들어, 완전 연결 레이어들 각각은 2048개의 노드들로 구성될 수 있다. In one embodiment, the recognizer 630 may include at least one layer and may include, for example, a fully connected layer or the like (shown as "FULLY CON" in FIG. 4) ). In the fully connected layer, nodes between adjacent layers are fully connected, and connection weights can be set individually. For example, each of the fully connected layers may comprise 2048 nodes.

일 실시예에서, 인식부(340)는 제1 네트워크(320)에 의해 추출된 특징 정보의 결과값과 제2 네트워크(330)에 의해 추출된 특징 정보의 결과값의 평균값을 산출할 수 있으며, 상기 평균값을 최종 결과로 추종할 수 있다. In an embodiment, the recognition unit 340 may calculate the average value of the result of the feature information extracted by the first network 320 and the result of the feature information extracted by the second network 330, The average value can be followed as the final result.

비록 도시되진 않았지만, 입력 영상으로부터 원소를 인식하도록 인식부(340)의 파라미터를 학습하는 학습부를 더 포함할 수 있다. Although not shown, it may further include a learning unit that learns parameters of the recognition unit 340 to recognize an element from the input image.

도 5는 도 3에 도시된 딥 러닝 기반 영상 인식 시스템의 네트워크 구조의 다른 일 실시예를 설명하기 위한 구성도이며, 도 6은 원-핫(one-hot) 벡터 인코딩 기법과 라벨 스무딩 기법을 설명하기 위한 그래프이다.FIG. 5 is a block diagram for explaining another embodiment of the network structure of the deep learning-based image recognition system shown in FIG. 3. FIG. 6 illustrates a one-hot vector encoding scheme and a label smoothing scheme FIG.

도 4의 실시예와 같이, 제1 네트워크(320)와 제2 네트워크(330)가 제1 추출부(321)를 공유하는 구조로 구현되는 경우, 중간 레벨 및 고 레벨이 서로 독립적으로 학습된다고 하더라도, 제1 네트워크(320)와 제2 네트워크(430) 사이에 상관관계(correlation)가 발생할 수 있어, 원-핫(one-hot) 벡터 인코딩 기법을 이용하는 경우, 독립된 네트워크를 앙상블하는 것과 비교하여 효과가 감소할 수 있는 문제점이 발생할 수 있다.4, when the first network 320 and the second network 330 are implemented in a structure sharing the first extracting unit 321, even if the intermediate level and the high level are independently learned from each other A correlation may occur between the first network 320 and the second network 430 so that when one-hot vector encoding technique is used, compared with ensuring an independent network, May be reduced.

도 5의 실시예는 제1 네트워크(320) 및 제2 네트워크(330)의 기본적인 구조는 도 4의 실시예와 동일하나, 제1 네트워크(320)와 제2 네트워크(330) 사이에 상관관계가 발생하는 것을 방지하기 위해, 제1 네트워크(320)와 제2 네트워크(330)가 라벨 스무딩(label smoothing) 기법을 이용하여 특징 정보를 추출하는 것을 특징으로 한다. 5, the basic structure of the first network 320 and the second network 330 is the same as that of the embodiment of FIG. 4, except that a correlation is established between the first network 320 and the second network 330 The first network 320 and the second network 330 extract feature information by using a label smoothing technique.

일 실시예에서, 라벨 스무딩 기법은 아래의 수학식 1을 이용하여 그라운드 트루(ground truth) 라벨을 인코딩할 수 있다.In one embodiment, the label smoothing technique may encode a ground truth label using Equation 1 below.

수학식 1.Equation 1

Figure pat00001
Figure pat00001

여기서, k는 클래스(classses)의 수를 의미한다. 이러한 라벨 스무딩 기법은 모델로부터의 예측된 값의 분포를 균일한 분포로 사전에 정규화하는 방법으로 해석될 수 있다. 또한, 두 클래스가 매우 비슷한 경우 one-hot 벡터는 항상 두 클래스(제1 네트워크와 제2 네트워크에 의해 추출된 특징들)가 완전히 다르다는 것을 나타내는 반면, 라벨 스무딩 기법은 두 클래스 사이의 차이가 작아지므로 네트워크가 학습 데이터에서 추출한 지식을 학습할 수 있게 된다. Here, k means the number of classses. This label smoothing technique can be interpreted as a method of pre-normalizing the distribution of predicted values from the model to a uniform distribution. Also, if the two classes are very similar, the one-hot vector always indicates that the two classes (the features extracted by the first network and the second network) are completely different, whereas the label smoothing technique reduces the difference between the two classes The network can learn the knowledge extracted from the learning data.

이와 같이, 라벨 스무딩 기법을 이용하여 적당히 부드럽게 인코딩된 벡터를 ground truth 라벨로 정의하여 모델을 정규화시킴으로써, 제1 네트워크(320)와 제2 네트워크(330) 사이의 상관관계(correlation)을 줄일 수 있다. As described above, the correlation between the first network 320 and the second network 330 can be reduced by normalizing the model by defining a properly smoothly encoded vector using a label smoothing technique as a ground truth label .

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components.

예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute one or more software applications that are executed on an operating system (OS) and an operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, and the like, alone or in combination. Program instructions to be recorded on the medium may be those specially designed and constructed for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상에서 설명한 본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니고 후술하는 특허청구범위에 의해 한정되며, 본 발명의 구성은 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 그 구성을 다양하게 변경 및 개조할 수 있다는 것을 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 쉽게 알 수 있다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not intended to limit the invention to the particular forms disclosed. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

310: 입력 영상 수신부
320: 제1 네트워크
321: 제1 추출부
322: 제2 추출부
323: 제3 추출부
330: 제2 네트워크
332: 제4 추출부
334: 제5 추출부
340: 인식부
310: input image receiving unit
320: first network
321:
322:
323: Third extracting unit
330: Second network
332: fourth extracting unit
334: fifth extracting unit
340:

Claims (6)

객체를 포함하는 입력 영상을 수신하는 입력 영상 수신부;
상기 입력 영상에 대응하는 저 레벨 특징을 나타내는 저 레벨 특징 정보를 추출하는 제1 추출부, 상기 저 레벨 특징 정보에 대응하는 중간 레벨 특징을 나타내는 중간 레벨 특징 정보를 추출하는 제2 추출부 및 상기 중간 레벨 특징 정보에 대응하는 고 레벨 특징을 나타내는 고 레벨 특징 정보를 추출하는 제3 추출부를 포함하는 제1 네트워크;
상기 제1 추출부에 의해 추출된 상기 저 레벨 특징 정보에 대응하는 중간 레벨 특징을 나타내는 중간 레벨 특징 정보를 추출하는 제4 추출부 및 상기 제4 추출부에 의해 추출된 중간 레벨 특징 정보에 대응하는 고 레벨 특징을 나타내는 고 레벨 특징 정보를 추출하는 제5 추출부를 포함하는 제2 네트워크; 및
상기 제1 네트워크에 의해 추출된 특징 정보와 상기 제2 네트워크에 의해 추출된 특징 정보를 이용하여 상기 객체에 대응하는 원소를 인식하는 인식부; 를 포함하는 딥 러닝 기반 영상 인식 시스템.
An input image receiving unit for receiving an input image including an object;
A second extraction unit for extracting intermediate level feature information representing an intermediate level feature corresponding to the low level feature information and a second extraction unit for extracting intermediate level feature information corresponding to the low level feature information, And a third extracting unit for extracting high-level feature information indicating a high-level feature corresponding to the level feature information;
Level feature information corresponding to the low-level feature information extracted by the first extracting unit, and a fourth extracting unit extracting intermediate level feature information indicating an intermediate level feature corresponding to the low-level feature information extracted by the first extracting unit, A second network including a fifth extractor for extracting high-level feature information indicative of a high-level feature; And
A recognition unit for recognizing an element corresponding to the object using the feature information extracted by the first network and the feature information extracted by the second network; Based learning system.
제1항에 있어서, 상기 인식부는,
상기 제1 네트워크에 의해 추출된 특징 정보와 상기 제2 네트워크에 의해 추출된 특징 정보의 평균값을 이용해 상기 객체에 대응하는 원소를 인식하는 딥 러닝 기반 영상 인식 시스템.
The apparatus of claim 1,
Wherein the element corresponding to the object is recognized using the characteristic information extracted by the first network and the characteristic information extracted by the second network.
제1항에 있어서, 상기 제1 추출부 내지 상기 제5 추출부는,
각각 저 레벨 특징 정보, 중간 레벨 특징 정보 또는 고 레벨 특징 정보를 추출하기 위한 적어도 하나의 컨볼루션 레이어(Convolution layer)를 포함하는 딥 러닝 기반 영상 인식 시스템.
The apparatus according to claim 1, wherein the first extracting unit to the fifth extracting unit comprise:
Level feature information, and at least one convolution layer for extracting low-level feature information, intermediate-level feature information, or high-level feature information, respectively.
제1항에 있어서, 상기 제1 네트워크 및 상기 제2 네트워크는,
라벨 스무딩(Label smoothing) 기법을 이용하여 상기 특징 정보를 추출하는 딥 러닝 기반 영상 인식 시스템.
2. The method of claim 1, wherein the first network and the second network comprise:
A deep learning based image recognition system for extracting the feature information using a label smoothing technique.
입력 영상에 대응하는 저 레벨 특징을 나타내는 저 레벨 특징 정보를 추출하는 제1 저 레벨 특징 추출부, 상기 저 레벨 특징 정보에 대응하는 중간 레벨 특징을 나타내는 중간 레벨 특징 정보를 추출하는 제1 중간 레벨 특징 추출부 및 상기 중간 레벨 특징 정보에 대응하는 고 레벨 특징을 나타내는 고 레벨 특징 정보를 추출하는 제1 고 레벨 특징 추출부를 포함하는 제1 네트워크; 및
상기 저 레벨 특징 추출부로부터 분기되며, 상기 저 레벨 특징 정보에 대응하는 중간 레벨 특징을 나타내는 중간 레벨 특징 정보를 추출하는 제2 중간 레벨 특징 추출부 및 상기 제2 중간 레벨 특징 추출부에 의해 추출된 중간 레벨 특징 정보에 대응하는 고 레벨 특징을 나타내는 고 레벨 특징 정보를 추출하는 제2 고 레벨 특징 추출부를 포함하는 제2 네트워크;
를 포함하는 딥 네트워크 구조.
A first low-level feature extracting unit for extracting low-level feature information representing a low-level feature corresponding to the input image, a first intermediate level feature extracting unit for extracting intermediate-level feature information representing an intermediate level feature corresponding to the low- And a first high-level feature extraction unit for extracting high-level feature information representing a high-level feature corresponding to the intermediate level feature information; And
A second intermediate level feature extraction unit that is branched from the low level feature extraction unit and extracts intermediate level feature information indicating an intermediate level feature corresponding to the low level feature information; A second network including a second high-level feature extraction unit for extracting high-level feature information representing a high-level feature corresponding to the intermediate level feature information;
≪ / RTI >
제5항에 있어서, 상기 제1 네트워크 및 상기 제2 네트워크는,
라벨 스무딩(Label smoothing) 기법을 이용하여 그라운드 트루(Ground truth) 라벨을 인코딩하는 딥 네트워크 구조.

6. The method of claim 5, wherein the first network and the second network comprise:
A deep network structure that encodes the label of the ground truth using label smoothing.

KR1020170073860A 2017-06-13 2017-06-13 Structure of deep network and deep learning based visual image recognition system KR102376110B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170073860A KR102376110B1 (en) 2017-06-13 2017-06-13 Structure of deep network and deep learning based visual image recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170073860A KR102376110B1 (en) 2017-06-13 2017-06-13 Structure of deep network and deep learning based visual image recognition system

Publications (2)

Publication Number Publication Date
KR20180135616A true KR20180135616A (en) 2018-12-21
KR102376110B1 KR102376110B1 (en) 2022-03-17

Family

ID=64960100

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170073860A KR102376110B1 (en) 2017-06-13 2017-06-13 Structure of deep network and deep learning based visual image recognition system

Country Status (1)

Country Link
KR (1) KR102376110B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111126388A (en) * 2019-12-20 2020-05-08 维沃移动通信有限公司 Image recognition method and electronic equipment
KR102250756B1 (en) * 2019-11-29 2021-05-10 연세대학교 산학협력단 Method and Apparatus for Extracting Key Point Using Bidirectional Message Passing Structure

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100953047B1 (en) 2007-12-28 2010-04-14 주식회사 하이닉스반도체 Method of operating a non volatile memory device
KR20150108673A (en) * 2014-03-18 2015-09-30 삼성전자주식회사 User recognition method and apparatus
KR20160072768A (en) * 2014-12-15 2016-06-23 삼성전자주식회사 Method and apparatus for recognizing and verifying image, and method and apparatus for learning image recognizing and verifying

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100953047B1 (en) 2007-12-28 2010-04-14 주식회사 하이닉스반도체 Method of operating a non volatile memory device
KR20150108673A (en) * 2014-03-18 2015-09-30 삼성전자주식회사 User recognition method and apparatus
KR20160072768A (en) * 2014-12-15 2016-06-23 삼성전자주식회사 Method and apparatus for recognizing and verifying image, and method and apparatus for learning image recognizing and verifying

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102250756B1 (en) * 2019-11-29 2021-05-10 연세대학교 산학협력단 Method and Apparatus for Extracting Key Point Using Bidirectional Message Passing Structure
CN111126388A (en) * 2019-12-20 2020-05-08 维沃移动通信有限公司 Image recognition method and electronic equipment
CN111126388B (en) * 2019-12-20 2024-03-29 维沃移动通信有限公司 Image recognition method and electronic equipment

Also Published As

Publication number Publication date
KR102376110B1 (en) 2022-03-17

Similar Documents

Publication Publication Date Title
KR102486699B1 (en) Method and apparatus for recognizing and verifying image, and method and apparatus for learning image recognizing and verifying
CN111738231B (en) Target object detection method and device, computer equipment and storage medium
CN105631398B (en) Method and apparatus for recognizing object and method and apparatus for training recognizer
WO2021057056A1 (en) Neural architecture search method, image processing method and device, and storage medium
CN110188795A (en) Image classification method, data processing method and device
US20160171346A1 (en) Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image
CN111160350B (en) Portrait segmentation method, model training method, device, medium and electronic equipment
CN111444881A (en) Fake face video detection method and device
CN110222718B (en) Image processing method and device
CN110222717A (en) Image processing method and device
US11468296B2 (en) Relative position encoding based networks for action recognition
CN112804558B (en) Video splitting method, device and equipment
CN111667483A (en) Training method of segmentation model of multi-modal image, image processing method and device
KR20190080818A (en) Method and apparatus of deep learning based object detection with additional part probability maps
Zhang et al. Channel-wise and feature-points reweights densenet for image classification
CN114821096A (en) Image processing method, neural network training method and related equipment
CN114282055A (en) Video feature extraction method, device and equipment and computer storage medium
CN114299304B (en) Image processing method and related equipment
CN116958324A (en) Training method, device, equipment and storage medium of image generation model
KR102554149B1 (en) Method and apparatus for recognizing object, and method and apparatus for training recognition model
Uddin et al. A perceptually inspired new blind image denoising method using $ L_ {1} $ and perceptual loss
CN113657272B (en) Micro video classification method and system based on missing data completion
Yi et al. Elanet: effective lightweight attention-guided network for real-time semantic segmentation
CN116863194A (en) Foot ulcer image classification method, system, equipment and medium
KR102376110B1 (en) Structure of deep network and deep learning based visual image recognition system

Legal Events

Date Code Title Description
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant