KR102522258B1 - Yolo 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방법 및 그 오토인코더 - Google Patents

Yolo 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방법 및 그 오토인코더 Download PDF

Info

Publication number
KR102522258B1
KR102522258B1 KR1020210141330A KR20210141330A KR102522258B1 KR 102522258 B1 KR102522258 B1 KR 102522258B1 KR 1020210141330 A KR1020210141330 A KR 1020210141330A KR 20210141330 A KR20210141330 A KR 20210141330A KR 102522258 B1 KR102522258 B1 KR 102522258B1
Authority
KR
South Korea
Prior art keywords
uav
autoencoder
image data
yolo
real
Prior art date
Application number
KR1020210141330A
Other languages
English (en)
Inventor
강상길
이한음
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Priority to KR1020210141330A priority Critical patent/KR102522258B1/ko
Application granted granted Critical
Publication of KR102522258B1 publication Critical patent/KR102522258B1/ko

Links

Images

Classifications

    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 YOLO 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방법에 관한 것으로, YOLO 모델을 이용해 무인기 영상 데이터에서 객체인 무인기를 검출하기 전에 오토인코더를 이용해 전처리하여 입력되는 무인기 영상 데이터의 노이즈 등을 제거하고 색체를 강화하여 복원함으로써 YOLO를 기반으로 객체를 검출시 무인기 검출을 향상시키는 YOLO 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방법을 제공한다.

Description

YOLO 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방법 및 그 오토인코더 {Autoencoder-based preprocessing method for YOLO real-time UAV detection and autoencoder}
본 발명은 YOLO 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방법 및 그 오토인코더에 관한 것으로서, 더욱 상세하게는 YOLO를 기반으로 무인기 영상 데이터에서 객체인 무인기를 검출시 검출 정확도를 높일 수 있도록 오토인코더를 기반으로 전처리하는 방법 및 그 오토인코더에 관한 것이다.
일반적으로 객체 탐지(object detection)는 이미지나 동영상 데이터에서 사람, 동물, 차량 등 의미 있는 객체(object)의 종류와 그 위치를 정확하게 찾기 위한 컴퓨터 비전(computer vision) 기술이다.
영상에서 관심 대상을 인식하기 위해서는 일반적으로 검출 대상에 대한 후보 영역을 찾고 그 후보 영역에 대한 객체의 종류와 위치를 학습된 모델을 통해 예측한다. 이러한 과정을 위해서는 영상 및 영상 내의 객체 종류(class)와 객체 위치에 관한 바운딩 박스(bounding box) 정보가 필요하며, 이에 얼굴, 도로상의 보행자 및 차량 등의 인식에 딥러닝(deep learning) 기반의 객체 탐지 기술이 많이 이용된다.
상기 객체 탐지(Object detection)에서 널리 사용되는 CNN(Convolutional Neural Network)기반 딥러닝 모델로서 YOLO(You only look once)가 제안된 바 있다.
상기 CNN은 수많은 행렬 곱셈의 반복으로 이루어져 있어서 각각의 계산 자체는 매우 단순하지만 여러 계층(layer)을 거치기 때문에 시간이 오래 걸리는데 이러한 CNN의 단점을 보완하기 위해 개발된 것이 YOLO이며, 이러한 YOLO는 이미지를 N개의 그리드 셀(Grid cell)로 나눈 후 각 셀이 객체를 포함할 확률을 표시한다.
이러한 YOLO를 기반으로 객체를 검출하는 방식과 관련된 선행기술로 공개특허 제10-2021-0094751호(참고문헌 1)의 YOLO 기반 경량 경계 상자 검출과 영상 처리를 통한 정확한 동물 탐지 방법 및 장치, 공개특허 제10-2021-0101637호(참고문헌 2)의 Lidar센서와 YOLO알고리즘을 결합한 3D MAP 자율주행 비행체 등이 제안된 바 있다.
그런데, 이러한 종래의 YOLO를 기반으로 한 객체 검출 방식들은 먼지, 햇빛, 구름 등과 같은 각종 노이즈 또는 환경적 요인으로 인해 객체(Object)의 검출 정확도가 떨어지는 문제점이 있다.
아울러, 종래 YOLO를 가반으로 객체를 검출하는 방식들은 이미지 크기가 작으면 바운딩 박스(bounding box)의 크기 제한으로 인해 검출 정확도 역시 떨어지는 문제점이 있다.
참고문헌 1: 공개특허 제10-2021-0094751호 참고문헌 2: 공개특허 제10-2021-0101637호
따라서, 본 발명은 이러한 문제점들을 해결하기 위한 것으로서 본 발명은 YOLO를 기반으로 무인기 영상 데이터에서 객체인 무인기를 검출시 객체(Object)의 검출 정확도를 높일 수 있는 YOLO 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방법 및 그 오토인코더를 제공하는데 그 목적이 있다.
특히, 본 발명은 오토인코더를 기반으로 무인기 영상 데이터의 노이즈 등을 제거하고 색체를 강화할 수 있는 YOLO 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방법 및 그 오토인코더를 제공하는데 그 목적이 있다.
아울러, 본 발명은 무인기 영상 데이터를 YOLO를 기반으로 객체를 검출시 바운딩 박스(bounding box)의 검출 확률을 향상시킬 수 있는 YOLO 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방법 및 그 오토인코더를 제공하는데 그 목적이 있다.
이와 같은 기술적 과제를 해결하기 위해 본 발명은;
YOLO 실시간 무인기 검출을 위한 오토인코더 기반의 전처리 방법에 있어서,
상기 오토인코더로 상기 무인기 영상 데이터를 입력받는 제1단계; 및
상기 오토인코더에서 상기 무인기 영상 데이터의 노이즈를 제거하고 복원하는 제2단계;를 포함하는 것을 특징으로 하는 YOLO 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방법을 제공한다.
이때, 상기 오토인코더는 목적함수(Objective function)인 "
Figure 112021120981525-pat00001
"로 학습하는 것을 특징으로 한다.
그리고, 상기 제2단계는 상기 오토인코더를 통해 무인기 영상 데이터의 노이즈를 제거하고 색채를 강화하여 무인기 영상 데이터를 복원하는 단계인 것을 특징으로 한다.
아울러, 상기 제2단계 이후에, 상기 복원된 무인기 영상 데이터를 YOLO 모델의 입력 레이어에 삽입하는 제4단계;를 더 포함하는 것을 특징으로 한다.
그리고, 상기 YOLO 모델은 YOLO v4인 것을 특징으로 한다.
또한, 본 발명은;
YOLO 실시간 무인기 검출을 위해 무인기 영상 데이터를 전처리하는 오토인코더에 있어서, 상기 무인기 이미지 데이터를 픽셀단위로 입력받는 입력 계층과, 상기 입력계층으로부터 제공되는 무인기 이미지 데이터를 학습하기 위해 더 깊고 복잡한 모델을 생성하는 히든 계층과, 상기 모델 안의 임의의 값으로 분해된 무인기 이미지 데이터를 다시 원래 형식으로 복원하는 복원 계층과, 무인기 이미지 데이터에서 확률적으로 선택된 특정 픽셀들을 이용하여 무인기 이미지 데이터 복원과정에 영향력을 조절하는 1차 및 2차 지도 계층을 포함하는 것을 특징으로 하는 YOLO 실시간 무인기 검출을 위한 오토인코더도 제공한다.
이때, 상기 1차 지도 계층은 학습된 노이즈를 제거하는 방향으로 복원 계층을 지도하고, 상기 2차 지도 계층은 복원 계층을 통해 복원된 무인기 이미지 데이에 노이즈 재생성을 시도하는 것을 특징으로 한다.
아울러, 상기 1차 및 2차 지도 계층은 워서스테인 거리(Wasserstein distance)를 기반으로 하는 정규화를 적용해 상호보완적으로 학습하는 것을 특징으로 한다.
본 발명에 따르면, YOLO 모델을 이용해 무인기 영상 데이터에서 객체인 무인기를 검출하기 전에 오토인코더를 이용해 전처리하여 입력되는 무인기 영상 데이터의 노이즈 등을 제거하고 색체를 강화하여 복원함으로써 객체(Object)인 무인기의 의 검출 정확도가 향상되는 효과가 있다.
특히, 본 발명에 따르면 개선된 형태의 오토인코더를 이용해 무인기 영상 데이터를 전처리함으로써 YOLO를 기반으로 객체를 검출시 바운딩 박스(bounding box)의 검출 확률을 더욱 향상시키는 효과가 있다.
도 1은 무인기 영상 데이터의 일 예를 도시한 도면이다.
도 2는 본 발명에 따른 오토인코더 기반의 YOLO 시스템 구성도이다.
도 3은 본 발명에 따른 YOLO 실시간 무인기 검출을 위한 오토인코더 기반 전처리 구성도이다.
도 4는 본 발명에 따른 YOLO를 통한 무인기 영상 데이터의 처리 예를 도시한 도면이다.
도 5는 본 발명에 따른 오토인코더 기반의 YOLO를 통해 무인기 영상 데이터로부터 무인기를 검출하는 예를 도시한 도면이다.
이하, 본 발명에 따른 YOLO 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방법 및 그 오토인코더를 첨부한 도면을 참고로 하여 상세히 기술되는 실시 예에 의하여 그 특징들을 이해할 수 있을 것이다.
이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.
따라서, 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들은 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.
도 1 내지 도 5는 본 발명에 따른 YOLO 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방식을 설명하기 위해 도시한 도면들이다.
본 발명에 따른 YOLO 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방법은 실시간으로 입력되는 무인기 영상 데이터에서 객체(object)인 무인기(無人耭; UAV)를 YOLO 모델을 통해 검출시 객체(Object)의 검출 정확도를 높일 수 있도록 오토인코더를 기반으로 전처리하여 무인기 영상 데이터의 노이즈 제거 및 색체 강화를 수행한다.
도 1은 본 발명에 따른 실시간 무인기 검출을 위한 무인기 영상 데이터(1)의 일 예로서 객체인 무인기(10)가 바운딩 박스(bounding box)(10a)의 내부에 도시된다.
이와 같은 무인기 영상 데이터(1)에서의 무인기(10) 검출을 위한 YOLO 시스템은 무인기 영상 데이터(1)의 노이즈 제거 및 복원 등의 이미지 처리(image processing)하는 오토인코더(100)와, 상기 오토인코더(100)에서 이미지 처리된 무인기 영상 데이터(1)에서 무인기(10)를 검출하는 YOLO 모델을 포함한다.
이하, 본 발명의 각부 구성을 구체적으로 설명한다.
도 2를 참고하면 상기 YOLO 모델은 YOLO v4로서, 이의 기본적인 구성은 상기 오토인코더(100)를 통해 노이즈 등이 제거되어 이미지 처리된 무인기 영상 데이터(1)를 입력받는 입력 레이어(200)와, 상기 입력 레이어(200)를 통해 입력된 무인기 영상 데이터를 특징맵(feature map)으로 변형시켜주는 백본(Backbone)(210)과, 상기 백본(Backbone)(210)에서 추출한 특징맵(feature map)의 로케이션(location) 작업을 수행하는 밀도 예측(Dense Prediction)(220)과, 상기 백본(Backbone)(210)과 밀도 예측(Dense Prediction)(220)을 연결하는 부분으로 특징맵(feature map)을 정제(refinement) 및 재구성(reconfiguration)하는 넥(Neck)(230)을 포함한다.
한편, 상기 오토인코더(100)를 통한 전처리를 수행하지 않고 무인기 영상 데이터(1)를 Yolo v4의 입력 레이어(200), 백본(Backbone)(210), 넥(Neck)(230) 및 밀도 예측(Dense Prediction)(220)을 수행하는 경우 입력 레이어(200)에 입력되는 데이터 자체의 질에 따라 최종 결과(1a)가 크게 변화한다.
특히, 무인기 영상 데이터(1)에서 무인기(10)를 검출하는 과정에는 먼지, 햇빛, 구름 등과 같은 각종 다양한 환경적 노이즈가 발생할 수 있기 때문에 입력 레이어(200)에 무인기 영상 데이터(1)를 삽입하기 전에 본 발명의 오토인코더(100)를 이용해 이미지 처리(image processing)를 적용하는 것이 바람직하다.
이에 본 발명은 신경망(neural network)을 기반으로 하는 오토인코더(100)를 이용하여 무인기 영상 데이터(1)의 전처리를 수행한 후 YOLO v4의 입력 레이어(200)로 제공한다. 이 경우 본 발명에서는 오토인코더(100)의 구조를 변형하여 이미지 노이즈 제거를 진행하고 복원된 데이터를 YOLO 모델에 삽입한다.
이와 같은 본 발명의 오토인코더(100)는 도 3을 참고하면 입력 계층(110), 히든 계층(120), 복원 계층(130) 그리고 1차 및 2차 지도 계층(140,150)을 포함한다.
상기 입력 계층(110)은 무인기 이미지 데이터(1)를 픽셀(pixel) 단위로 입력받는 계층이고, 상기 히든 계층(120)은 무인기 이미지 데이터(1)를 학습하기 위해 더 깊고 복잡한 모델을 생성하기 위한 계층이고, 상기 복원 계층(130)은 모델안의 임의의 값으로 분해된 무인기 이미지 데이터(1)를 다시 원래 형식으로 복원하는 계층이며, 상기 1차 및 2차 지도 계층(140,150)은 무인기 이미지 데이터(1)에서 확률적으로 선택된 특정 픽셀들을 이용하여 이미지 데이터 복원과정에 영향력을 조절하는 계층이다.
여기서, 상기 1차 및 2차 지도 계층(140,150)과 히든 계층(120)이 잘 학습될수록 복원 계층(130)의 결과값에서 노이즈가 많이 사라진 질좋은 데이터가 출력된다.
상기 오토인코더(100)는 복원 계층(130)의 전단과 후단에 1차 및 2차 지도 계층(140,150)을 추가하여 노이즈 데이터를 사전훈련한다.
이때, 상기 1차 지도 계층(140)은 학습된 노이즈를 제거하는 방향으로 복원 계층(130)을 지도하고, 상기 2차 지도 계층(150)은 복원 계층(130)을 통해 복원된 이미지에 노이즈 재생성을 시도한다.
이와 같은 1차 지도 계층(140)과 2차 지도 계층(150)에서는 두 확률분포간의 거리를 측정하는 지표인 워서스테인 거리(Wasserstein distance)를 기반으로 하는 정규화를 적용해 상호보완적으로 학습한다.
도 3에서 W1, W1', W2, W2', W3 등은 신경망 안에서 학습되는 가중치 값을 의미하며, JPGSAE는 모델전체의 목적함수이고, 상기 Jsparse는 쿨백-레이블러 다이버전스를 통해 신경망 내부의 값들이 어느 정도의 영향력을 가지고 있는지를 구한 다음 영향력이 작은 노드들을 비활성화시켜서 모델의 효율성을 높이는 정규화항이다.
이러한 오토인코더(100)는 복원 계층(130)의 표적 데이터(target data)에 이미지 전처리(image preprocessing)을 통해 이미지 색채 클러스터링(clustering)을 적용한다.
이와 같은 오토인코더(100)의 무인기 이미지 데이터(1) 처리과정은 목적함수 JPGSAE를 최소화하는 방향으로 모델이 학습되면 무인기 이미지 데이터(1)가 입력 계층(110)에 들어와서 모델을 거쳐 복원 계층(130)에서 새로운 무인기 이미지 데이터(1)가 생성되는데, 이와 같이 생성된 무인기 이미지 데이터(1)는 기존의 이미지 데이터 보다 노이즈가 적고 이후 YOLO 모델을 이용하여 객체 탐지(object detection)를 하기에 적합한 이미지가 출력된다.
이와 같은 노이즈 제거 및 이미지 강화 복원을 수행하는 오토인코더(100)의 목적함수(Objective function)는 다음의 수식 1과 같이 나타낼 수 있다.
[수식 1]
Figure 112021120981525-pat00002
여기서, X는 입력데이터, Xg는 지도 계층의 표적 데이터(target data), X'은 복원된 노드 값, G1은 1차 지도 계층(140)의 노드 값, G2는 2차 지도 계층(150)의 노드 값을 의미한다.
한편, 상기 수식 1은 Kantorovich-Rubinstein duality의 정의에 따라 다음의 수식 2와 같이 변형해야 학습에 사용할 수 있다.
[수식 2]
Figure 112021120981525-pat00003
상기 수식 2에서,
Figure 112021120981525-pat00004
는 수식 1의 "
Figure 112021120981525-pat00005
"로서 복원 계층(130)에서 이미지가 제대로 복원되도록 하기 위한 손실함수이고,
Figure 112021120981525-pat00006
는 수식 1의 "
Figure 112021120981525-pat00007
"로서 1차 및 2차 지도 계층(140,150)에서 복원 계층(130)이 학습할 때 특정 픽셀들의 영향력을 바꿔주도록 도와주기 위한 정규화식이다.
한편, 수식 1의 "
Figure 112021120981525-pat00008
"는 1차 및 2차 지도 계층(140,150)이 복원 계층(130)과 상호작용할 때 과적합 문제가 발생하거나 1차 및 2차 지도 계층(140,150)의 영향력이 너무 커지는 것을 방지하기 위한 정규화식으로, 모든 결합확률분포를 다 구해야 하는 하한(infimum) 문제를 딥러닝에 사용하기에는 복잡성이 매우 크므로 Kantorovich-Rubinstein duality의 정의에 따라 상한(supremum) 문제로 변형해야 딥러닝에 사용할 수 있다.
이에 본 발명은 수식 1의 "
Figure 112021120981525-pat00009
"를 수식 2에서 "
Figure 112021120981525-pat00010
"으로 변형하여 적용한다.
그리고, 상기 Jsparse는 전술한 바와 같이 쿨백-레이블러 다이버전스를 통해 신경망 내부의 값들이 어느 정도의 영향력을 가지고 있는지를 구한 다음 영향력이 작은 노드들을 비활성화시켜서 모델의 효율성을 높이는 정규화항이다.
이와 같이 오토인코더(100)를 통해 무인기 영상 데이터(1)의 전처리를 수행하면, 무인기 영상 데이터(1)의 노이즈를 제거하고 색채를 강화하고 복원된 데이터를 YOLO 모델의 입력 레이어(200)에 삽입한다.
도 4를 참고하면 오토인코더(100)를 통해 전처리를 수행한 무인기 영상 데이터(1)에서 객체(object)인 무인기(10)를 검출하는 YOLO v4는 입력 레이어(200)를 통해 입력되는 무인기 영상 데이터(1)에서 무수한 바운딩 박스(Bounding box)(10a)를 생성하고 그 내부에 해당 객체인 무인기(10)의 존재여부를 확률적으로 검출하는 모델이다. 이러한 YOLO v4는 일정확률 이상이라고 표시한 경우에만 출력한다.
이러한 YOLO v4의 처리(Process) 과정은 다음과 같다.
우선 입력되는 입력이미지(Input image)인 무인기 영상 데이터(1)를 S X S 그리드 셀(grid cell)로 나눈다.
그리고, 각각의 그리드 셀(grid cell)은 B개의 바운딩 박스(bounding box)(10a)와, 각 바운딩 박스(bounding box)(10a)에 대한 컨피던스 스코어(confidence score)를 갖는다.
만약, 셀(Cell)에 객체(object)가 존재하지 않는다면 컨피던스 스코어(confidence score)는 '0'이 된다.
여기서, 컨피던스 스코어(confidence score)는 특정 바운딩 박스안에 있는 객체가 어떤 물체의 클래스일 확률이다.
각각의 그리드 셀(grid cell)은 C개의 조건부 계층 확률(conditional class probability)를 갖으며, 각각의 바운딩 박스(bounding box)는 x, y, w, h, confidence로 구성된다.
여기서, (x,y)는 바운딩 박스(bounding box)의 중심점을 의미하며 그리드 셀(grid cell)의 범위에 대한 상대값이 입력된다.
또한, (w,h)는 전체 이미지의 폭(width), 높이(height)에 대한 상대값이 입력된다.
그리고, 테스트시간(Test time)에는 conditional class probability와 bounding box의 confidence score를 곱하여 다음의 수식 3과 같은 class-specific confidence score를 얻는다.
[수식 3]
Figure 112021120981525-pat00011
이상의 실시간 무인기 검출을 위한 무인기 영상 데이터(1)은 오토인코더(100)에서 전처리를 수행하고 YOLO v4의 입력 레이어(200)로 입력 및 처리(Process)를 수행한 결과의 일 예가 도 5에 도시된다.
이에 의하면 도 5의 (a)는 무인기 영상 데이터(1)이고 이는 오토인코더(100)에서 전처리를 수행하면 도 5의 (b)에서와 같이 노이즈 제거 및 색채가 강화된 무인기 영상 데이터(1)를 얻을 수 있으며, 이는 YOLO v4 모델을 통해 도 5의 (c)에서와 같이 확률이 높은 바운딩 박스(bounding box)(10a)를 검출할 수 있다.
위에서 설명한 YOLO 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방법을 정리하면, 상기 오토인코더(100)로 상기 무인기 영상 데이터(1)를 입력받는 제1단계 및 상기 오토인코더(100)에서 상기 무인기 영상 데이터(1)의 노이즈를 제거하고 복원하는 제2단계를 포함하여 이루어지게 된다.
이때, 상기 오토인코더(100)는 목적함수(Objective function)인 "
Figure 112021120981525-pat00012
"로 학습에 사용할 수 있다.
그리고, 상기 제2단계는 상기 오토인코더(100)를 통해 무인기 영상 데이터(1)의 노이즈를 제거하고 색채를 강화하여 무인기 영상 데이터(1)를 복원하는 단계이다.
상기 제2단계 이후에, 상기 복원된 무인기 영상 데이터(1)를 YOLO 모델의 입력 레이어(200)에 삽입하는 제4단계를 더 포함하여 구성되고, 상기 YOLO 모델은 YOLO v4이다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형 가능한 것으로, 본 발명의 보호범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
1: 무인기 영상 데이터 10: 무인기
10a: 바운딩 박스 100: 오토인코더
110: 입력 계층 120: 히든 계층
130: 복원 계층 140: 1차 지도 계층
150: 2차 지도 계층 200: 입력 레이어
210: 백본(Backbone) 220: 밀도 예측(Dense Prediction)
230: 넥(Neck)

Claims (9)

  1. YOLO 실시간 무인기 검출을 위한 오토인코더 기반의 전처리 방법에 있어서,
    상기 오토인코더로 상기 무인기 영상 데이터를 입력받는 제1단계; 및
    상기 오토인코더에서 상기 무인기 영상 데이터의 노이즈를 제거하고 복원하는 제2단계;를 포함하고,
    상기 오토인코더는 목적함수(Objective function)인 "
    Figure 112023019442672-pat00013
    "로 학습하는 것을 특징으로 하는 YOLO 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방법.
  2. 삭제
  3. 제 1항에 있어서,
    상기 제2단계는 상기 오토인코더를 통해 무인기 영상 데이터의 노이즈를 제거하고 색채를 강화하여 무인기 영상 데이터를 복원하는 단계인 것을 특징으로 하는 YOLO 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방법.
  4. 제 3항에 있어서,
    상기 제2단계 이후에, 상기 복원된 무인기 영상 데이터를 YOLO 모델의 입력 레이어에 삽입하는 제4단계;를 더 포함하는 것을 특징으로 하는 YOLO 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방법.
  5. 제 4항에 있어서,
    상기 YOLO 모델은 YOLO v4인 것을 특징으로 하는 YOLO 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방법.
  6. YOLO 실시간 무인기 검출을 위해 무인기 영상 데이터를 전처리하는 오토인코더에 있어서,
    상기 무인기 이미지 데이터를 픽셀단위로 입력받는 입력 계층과, 상기 입력계층으로부터 제공되는 무인기 이미지 데이터를 학습하기 위해 더 깊고 복잡한 모델을 생성하는 히든 계층과, 상기 모델 안의 임의의 값으로 분해된 무인기 이미지 데이터를 다시 원래 형식으로 복원하는 복원 계층과, 무인기 이미지 데이터에서 확률적으로 선택된 특정 픽셀들을 이용하여 무인기 이미지 데이터 복원과정에 영향력을 조절하는 1차 및 2차 지도 계층을 포함하며,
    상기 1차 지도 계층은 학습된 노이즈를 제거하는 방향으로 복원 계층(130)을 지도하고,
    상기 2차 지도 계층은 복원 계층을 통해 복원된 무인기 이미지 데이에 노이즈 재생성을 시도하는 것을 특징으로 하는 YOLO 실시간 무인기 검출을 위한 오토인코더.
  7. 삭제
  8. 제 6항에 있어서,
    상기 1차 및 2차 지도 계층은 워서스테인 거리(Wasserstein distance)를 기반으로 하는 정규화를 적용해 상호보완적으로 학습하는 것을 특징으로 하는 YOLO 실시간 무인기 검출을 위한 오토인코더.
  9. 제 6항에 있어서,
    상기 오토인코더는 목적함수(Objective function)인 "
    Figure 112021120981525-pat00014
    "로 학습하는 것을 특징으로 하는 YOLO 실시간 무인기 검출을 위한 오토인코더.
KR1020210141330A 2021-10-21 2021-10-21 Yolo 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방법 및 그 오토인코더 KR102522258B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210141330A KR102522258B1 (ko) 2021-10-21 2021-10-21 Yolo 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방법 및 그 오토인코더

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210141330A KR102522258B1 (ko) 2021-10-21 2021-10-21 Yolo 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방법 및 그 오토인코더

Publications (1)

Publication Number Publication Date
KR102522258B1 true KR102522258B1 (ko) 2023-04-17

Family

ID=86133803

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210141330A KR102522258B1 (ko) 2021-10-21 2021-10-21 Yolo 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방법 및 그 오토인코더

Country Status (1)

Country Link
KR (1) KR102522258B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210094751A (ko) 2020-01-22 2021-07-30 고려대학교 세종산학협력단 Yolo 기반 경량 경계 상자 검출과 영상 처리를 통한 정확한 동물 탐지 방법 및 장치
KR20210101637A (ko) 2020-02-10 2021-08-19 공종원 Lidar센서와 YOLO알고리즘을 결합한 3D MAP 자율주행 비행체

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210094751A (ko) 2020-01-22 2021-07-30 고려대학교 세종산학협력단 Yolo 기반 경량 경계 상자 검출과 영상 처리를 통한 정확한 동물 탐지 방법 및 장치
KR20210101637A (ko) 2020-02-10 2021-08-19 공종원 Lidar센서와 YOLO알고리즘을 결합한 3D MAP 자율주행 비행체

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Li Tan ET AL, "YOLOv4_Drone: UAV image target detection based on an improved YOLOv4 algorithm", Computers & Electrical Engineering, Volume 93, July 2021, (2021.07.31.) 1부.* *
Manshu Shi & Huan Wang, "Infrared Dim and Small Target Detection Based on Denoising Autoencoder Network", Mobile Networks and Applications volume 25, pages 1469-1483, 16 Nov. 2019(2019.11.16.) 1부.* *
Xiaona Song ET AL, "A road segmentation method based on the deep auto-encoder with supervised learning", Computers & Electrical Engineering, Volume 68, Pages 381-388, May 2018(2018.05.31.) 1부.* *

Similar Documents

Publication Publication Date Title
Kim et al. Unsupervised learning of image segmentation based on differentiable feature clustering
Žbontar et al. Stereo matching by training a convolutional neural network to compare image patches
Li et al. Single image dehazing via conditional generative adversarial network
CN107273905B (zh) 一种结合运动信息的目标主动轮廓跟踪方法
CN111461212B (zh) 一种用于点云目标检测模型的压缩方法
US20140270489A1 (en) Learned mid-level representation for contour and object detection
JP7483005B2 (ja) データ・ラベル検証
WO2022193515A1 (en) Devices, systems, methods, and media for adaptive augmentation for a point cloud dataset used for training
KR20230171966A (ko) 이미지 프로세싱 방법 및 장치 및 컴퓨터 판독 가능 저장 매체
CN114746898A (zh) 用于生成图像抠图的三分图的方法和系统
US10373022B1 (en) Text image processing using stroke-aware max-min pooling for OCR system employing artificial neural network
KR102325347B1 (ko) 머신러닝 기반 결함 분류 장치 및 방법
WO2021243947A1 (zh) 对象再识别方法及装置、终端和存储介质
CN113902913A (zh) 图片语义分割方法及装置
US20230070439A1 (en) Managing occlusion in siamese tracking using structured dropouts
Sobh et al. Adversarial attacks on multi-task visual perception for autonomous driving
CN110111365B (zh) 基于深度学习的训练方法和装置以及目标跟踪方法和装置
CN113538472B (zh) 一种基于编码-解码网络的向量场引导精细化分割方法
KR102522258B1 (ko) Yolo 실시간 무인기 검출을 위한 오토인코더 기반 전처리 방법 및 그 오토인코더
WO2019037863A1 (en) SYSTEM AND METHOD FOR TAG INCREASE IN VIDEO DATA
Singh et al. Fotonnet: A hw-efficient object detection system using 3d-depth segmentation and 2d-dnn classifier
CN112906588A (zh) 基于深度学习的暴恐图片安全检测系统
CN117423116B (zh) 一种文本检测模型的训练方法、文本检测方法及装置
Xia et al. Multi-RPN Fusion-Based Sparse PCA-CNN Approach to Object Detection and Recognition for Robot-Aided Visual System
Raj Learning Augmentation Policy Schedules for Unsuperivsed Depth Estimation

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant