KR102655237B1 - 가이드 특징맵 기반 표적 탐지 장치 및 방법 - Google Patents

가이드 특징맵 기반 표적 탐지 장치 및 방법 Download PDF

Info

Publication number
KR102655237B1
KR102655237B1 KR1020240010050A KR20240010050A KR102655237B1 KR 102655237 B1 KR102655237 B1 KR 102655237B1 KR 1020240010050 A KR1020240010050 A KR 1020240010050A KR 20240010050 A KR20240010050 A KR 20240010050A KR 102655237 B1 KR102655237 B1 KR 102655237B1
Authority
KR
South Korea
Prior art keywords
feature
feature information
features
stage
stages
Prior art date
Application number
KR1020240010050A
Other languages
English (en)
Inventor
김해문
안종식
이태영
최병인
Original Assignee
한화시스템(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화시스템(주) filed Critical 한화시스템(주)
Priority to KR1020240010050A priority Critical patent/KR102655237B1/ko
Application granted granted Critical
Publication of KR102655237B1 publication Critical patent/KR102655237B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30212Military
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명에 따른 가이드 특징맵 기반 표적 탐지 장치는 복수의 스테이지로 구성되며 입력 데이터를 대상으로 다중 스케일 특징 정보를 추출하는 백본 영역부, 상기 다중 스케일 특징 정보에 대한 특징 오정렬에 따른 공간 왜곡을 저감시키도록 특징 정렬을 수행하는 상기 넥 영역부 및 상기 특징 정렬된 결과를 대상으로 객체 존재성 점수를 재조정하여 소형 객체의 위치를 추정하는 헤드 영역부를 포함한다.

Description

가이드 특징맵 기반 표적 탐지 장치 및 방법{DEVICE AND METHOD FOR DETECTING TARGETS BASED ON GUIDE FEATURE MAPS}
본 발명은 가이드 특징맵 기반 표적 탐지 장치 및 방법에 관한 것으로서, 특히 소형 객체 검출을 목표로 하는 가이드 특징맵 기반 표적 탐지 장치 및 방법을 제공하기 위한 것이다. 특히 신경망 내부에서 소형 객체에 대한 특징이 부족할 때 발생하는 공간 정보의 왜곡을 방지하고, 예측된 객체 존재성 점수(Objectness score)를 보다 정확하게 재조정하는 장치 및 방법에 관한 것이다.
도 1은 감시 시스템 내 소형 객체의 예시를 도시한 도면이다.
객체 검출(Object Detection)은 컴퓨터 비전 분야에서 주요한 연구 주제 중 하나로, 영상 속 다수의 객체를 탐지하고 해당 객체의 위치 추정과 클래스(Class)를 식별하는 기술이다. 이는 주로 감시 시스템에서 활용되며 효과적인 모니터링 및 보안을 위해 필수적이다. 감시 시스템에서는 다양한 크기의 객체에 대한 정확한 검출이 요구되며, 표 1과 같이 다양한 크기의 객체에 대한 검출이 가능한 알고리즘이 필요하다. 다음 표 1은 객체의 크기에 따른 분류를 나타낸 것이다.
Categorization by Object size Object Size Metric
Very Tiny
Tiny
Small
Medium
최근에는 Transformer 기반 신경망이 이미지 분류 및 객체 검출 분야에서 높은 성능을 보이고 있지만, 이는 높은 계산 자원을 필요로 하여 감시 시스템의 하드웨어에서 적용이 어려운 경우가 있다. 따라서, 비교적 낮은 계산 비용으로도 효과적인 검출이 가능한 CNN(Convolution Neural Networks) 기반 신경망이 여전히 감시 시스템의 주류를 이루고 있다.일반적인 CNN 기반 객체 검출기 중에서는 Two-stage 및 YOLO(You Only Look Once) 신경망이 대표적으로 사용되고 있다. 특히, YOLO 신경망 계열은 실시간 추론 성능이 우수하여 감시 시스템에서 자주 활용되고 있다. 최근의 연구 중 YOLOv7 신경망은 E-ELAN(Extended Efficient Layer Aggregation Network)과 SimOTA 정답 데이터 할당(Label Assignment)을 통해 중첩된 객체의 검출 정확도를 향상시키는 방식을 적용하였다. 그러나, 이러한 일반적인 객체 검출기는 도 1에 도시된 소형 객체(표 1, Small 이하)가 포함된 영상에서는 검출 정확도가 낮다는 한계가 있다.
도 2는 소형 객체의 검출정확도 하락요소를 설명하기 위한 도면이다.
YOLO 기반 신경망에 해당하는 종래기술은 공간 방향 특징 오정렬(Feature misalignment)과 소형 객체에 대한 민감한(Sensitivity) IoU(Intersection over Union) 문제로 인해 소형 객체의 검출 정확도에 한계가 있다.
우선, 특징 오정렬 문제는 객체 검출기의 Neck 부분의 다중 스케일 특징 융합에서 발생한다. 검출기의 Neck은 백본 신경망의 계층적 특징을 조합하여 객체를 검출하는 역할을 담당하고 있는데, 일반적인 YOLO 신경망 기반 객체 검출기에서는 백본 신경망의 계층이 깊어짐에 따라 공간(spatial) 정보가 소실되고 의미론적 정보는 향상되는 특성을 고려하여 다중 스케일 특징 융합을 수행한다. 그러나, 다중 스케일 특징 융합에는 특징 해상도 변경 작업(Resize)이 필요한데, 이 작업은 결측치 보간법(Interpolation)과 풀링(Pooling) 연산을 사용하는 특징 업샘플링(Up-sampling) 및 다운샘플링(Down-sampling)으로 인해 도 2의 (a)와 같은 공간 정보 오정렬이 발생하며, 소형 객체의 공간 정보가 왜곡되는 문제가 발생하게 된다.
또한, 소형 객체의 민감한 IoU 문제는 객체 검출기의 Loss 계산에서 발생한다. 도 2의 (b)와 같이 소형 객체의 IoU 값은 검출기에서 예측된 경계 상자와 정답 데이터 사이의 미세한 거리 차이에서 영향을 받기 쉬운데, 이로 인해 예측된 소형 객체와 정답 데이터 사이의 IoU 값이 객체 존재성 점수를 학습하는 과정에서 정확한 객체 위치 추정에 악영향을 미치는 것이 문제로 작용한다. 이러한 문제는 소형 객체의 검출 정확도를 저하시키게 된다.
본 발명의 목적은, 소형 객체 검출을 목표로 하는 가이드 특징맵 기반 표적 탐지 장치 및 방법을 제공하기 위한 것이다. 특히 신경망 내부에서 소형 객체에 대한 특징이 부족할 때 발생하는 공간 정보의 왜곡을 방지하고, 예측된 객체 존재성 점수(Objectness score)를 보다 정확하게 재조정하는 장치 및 방법을 제공함에 있다.
다만, 본 발명이 해결하고자 하는 과제는 상기된 바와 같은 과제로 한정되지 않으며, 또다른 과제들이 존재할 수 있다.
상술한 과제를 해결하기 위한 본 발명의 제1 측면에 따른 가이드 특징맵 기반 표적 탐지 장치는 복수의 스테이지로 구성되며 입력 데이터를 대상으로 다중 스케일 특징 정보를 추출하는 백본 영역부, 상기 다중 스케일 특징 정보에 대한 특징 오정렬에 따른 공간 왜곡을 저감시키도록 특징 정렬을 수행하는 넥 영역부 및 상기 특징 정렬된 결과를 대상으로 객체 존재성 점수를 재조정하여 소형 객체의 위치를 추정하는 헤드 영역부를 포함한다.
본 발명의 일부 실시예에 있어서, 상기 백본 영역부는 상기 입력 데이터로부터 합성곱 연산을 통해 초기의 저수준 특징을 추출하는 제1 스테이지와, 상기 제1 스테이지로부터 출력되는 저수준 특징을 효율적 레이어 집계 네트워크(Efficient Layer Aggregation Networks, 이하 ELEN)을 통해 채널 수를 증가시키고 압축된 특징을 추출하는 제2 내지 제4 스테이지를 포함할 수 있다.
본 발명의 일부 실시예에 있어서, 상기 백본 영역부는 상기 제1 내지 제4 스테이지에서 추출된 특징을 스킵-연결(Skip-Connection)을 통해 상기 다중 스케일 특징 정보로 구성하고, 상기 다중 스케일 특징 정보를 업샘플링 및 다운샘플링 연산을 수행하여 상기 넥 영역부의 DFF 모듈로 전달할 수 있다.
본 발명의 일부 실시예에 있어서, 상기 넥 영역부는 상기 백본 영역부의 특정 스테이지에서의 특징 정보를 중심으로 상위 및 하위 스테이지에서의 특징 정보들을 대상으로 해상도를 변경하고, DCN(Deformable Convolution Net) 오프셋이 적용된 비고정 커널을 적용하여 특징 정렬을 수행하는 DFF(Deformable convolution Feature Fusion) 모듈을 포함할 수 있다.
본 발명의 일부 실시예에 있어서, 상기 DFF 모듈은 상기 특정 스테이지에서의 특징 정보를 참고 특징으로 설정하고, 상기 상위 및 하위 스테이지에서의 특징 정보를 이웃 특징으로 설정한 후, 상기 참고 특징과 이웃 특징이 유사해지도록 학습을 수행할 수 있다.
본 발명의 일부 실시예에 있어서, 상기 DFF 모듈은 상기 참고 특징을 정답 데이터로 설정하고 평균 제곱 오차 기반의 손실함수를 설정하여 상기 특징 정렬을 수행할 수 있다.
본 발명의 일부 실시예에 있어서, 상기 헤드 영역부는 병목 구조의 소정 크기의 컨볼루션 연산 기반으로 설계되어 재조정 객체 존재성 점수를 예측하는 ORH(Objectness score Refinement Hean) 신경망을 포함하고, 상기 재조정 객체 존재성 점수를 기반으로 상기 객체 존재성 점수를 보정하여 객체 존재 여부를 학습할 수 있다.
본 발명의 일부 실시예에 있어서, 상기 헤드 영역부는 바이너리 크로스 엔트로피 기반의 손실함수 형태의 재조정 객체 존재성 손실함수를 적용하여 상기 ORH 신경망을 학습할 수 있다.
또한, 본 발명의 제2 측면에 따른 가이드 특징맵 기반 표적 탐지 장치에 의해 수행되는 방법은 백본 영역부에서 입력 데이터를 대상으로 복수의 스테이지를 통해 다중 스케일 특징 정보를 추출하는 단계; 넥 영역부에서 상기 다중 스케일 특징 정보에 대한 특징 오정렬에 따른 공간 왜곡을 저감시키도록 특징 정렬을 수행하는 단계; 및 헤드 영역부에서 상기 특징 정렬된 결과를 대상으로 객체 존재성 점수를 재조정하여 소형 객체의 위치를 추정하는 단계를 포함한다.
본 발명의 일부 실시예에 있어서, 상기 백본 영역부에서 입력 데이터를 대상으로 복수의 스테이지를 통해 다중 스케일 특징 정보를 추출하는 단계는, 상기 입력 데이터를 제1 스테이지에 입력하여 합성곱 연산을 통해 초기의 저수준 특징을 추출하는 단계; 상기 제1 스테이지로부터 출력되는 저수준 특징을 효율적 레이어 집계 네트워크(Efficient Layer Aggregation Networks, 이하 ELEN)로 구성되는 제2 스테이지에 입력하여 채널 수를 증가시키고 압축된 특징을 추출하는 단계; 상기 제2 스테이지로부터 출력되는 특징 정보를 상기 효율적 레이어 집계 네트워크로 구성되는 제3 스테이지에 입력하여 채널 수를 증가시키고 압축된 특징을 추출하는 단계; 및 상기 제3 스테이지로부터 출력되는 특징 정보를 상기 효율적 레이어 집계 네트워크로 구성되는 제4 스테이지에 입력하여 채널 수를 증가시키고 압축된 특징을 추출하는 단계를 포함할 수 있다.
본 발명의 일부 실시예에 있어서, 상기 백본 영역부에서 입력 데이터를 대상으로 복수의 스테이지를 통해 다중 스케일 특징 정보를 추출하는 단계는, 상기 제1 내지 제4 스테이지에서 추출된 특징을 스킵-연결(Skip-Connection)을 통해 상기 다중 스케일 특징 정보로 구성하는 단계; 및 상기 다중 스케일 특징 정보를 업샘플링 및 다운샘플링 연산을 수행하여 상기 넥 영역부의 DFF 모듈로 전달하는 단계를 포함할 수 있다.
본 발명의 일부 실시예에 있어서, 상기 넥 영역부에서 상기 다중 스케일 특징 정보에 대한 특징 오정렬에 따른 공간 왜곡을 저감시키도록 특징 정렬을 수행하는 단계는, 상기 백본 영역부의 특정 스테이지에서의 특징 정보를 중심으로 상위 및 하위 스테이지에서의 특징 정보들을 대상으로 해상도를 변경하는 단계; 및 DCN(Deformable Convolution Net) 오프셋이 적용된 비고정 커널이 적용된 DFF(Deformable convolution Feature Fusion) 모듈을 통해 특징 정렬을 수행하는 단계를 포함할 수 있다.
본 발명의 일부 실시예에 있어서, 상기 DFF 모듈을 통해 특징 정렬을 수행하는 단계는, 상기 특정 스테이지에서의 특징 정보를 참고 특징으로 설정하는 단계; 상기 상위 및 하위 스테이지에서의 특징 정보를 이웃 특징으로 설정하는 단계; 및 상기 참고 특징과 이웃 특징이 유사해지도록 학습을 수행하는 단계를 포함할 수 있다.
본 발명의 일부 실시예에 있어서, 상기 참고 특징과 이웃 특징이 유사해지도록 학습을 수행하는 단계는, 상기 참고 특징을 정답 데이터로 설정하고 평균 제곱 오차 기반의 손실함수를 설정하여 상기 특징 정렬을 수행할 수 있다.
본 발명의 일부 실시예에 있어서, 상기 헤드 영역부에서 상기 특징 정렬된 결과를 대상으로 객체 존재성 점수를 재조정하여 소형 객체의 위치를 추정하는 단계는, 병목 구조의 소정 크기의 컨볼루션 연산 기반으로 설계된 ORH(Objectness score Refinement Hean) 신경망을 기반으로 재조정 객체 존재성 점수를 예측하는 단계; 및 상기 재조정 객체 존재성 점수를 기반으로 상기 객체 존재성 점수를 보정하여 객체 존재 여부를 학습하는 단계를 포함할 수 있다.
본 발명의 일부 실시예에 있어서, 상기 재조정 객체 존재성 점수를 기반으로 상기 객체 존재성 점수를 보정하여 객체 존재 여부를 학습하는 단계는, 상기 헤드 영역부는 바이너리 크로스 엔트로피 기반의 손실함수 형태의 재조정 객체 존재성 손실함수를 적용하여 상기 ORH 신경망을 학습할 수 있다.
상술한 과제를 해결하기 위한 본 발명의 다른 면에 따른 컴퓨터 프로그램은, 하드웨어인 컴퓨터와 결합되어 상기 가이드 특징맵 기반 표적 탐지 장치 및 방법을 실행하며, 컴퓨터 판독가능 기록매체에 저장된다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
전술한 본 발명의 일 실시예에 의하면, 새롭게 제안한 YOLOv7F 신경망은 소형 객체에 대한 뛰어난 탐지 능력을 갖추어, 극소형부터 다양한 크기의 소형 객체까지 포괄적으로 감지할 수 있다. 이를 통해, 종래 기술에서 발생한 낮은 경계 상자 크기 추정 능력 문제를 극복하고, SimOTA 정답 데이터 할당을 활용하여 학습하는 동안 탁월한 성과를 나타낸다.
특히, 본 발명의 일 실시예는 극소형 표적에 대한 감지 성능이 현저히 향상되었으며, 다양한 크기의 소형 객체에 대한 효과적인 탐지가 가능하다는 장점이 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 감시 시스템 내 소형 객체의 예시를 도시한 도면이다.
도 2는 소형 객체의 검출정확도 하락요소를 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 가이드 특징맵 기반 표적 탐지 장치의 구성도이다.
도 4a는 종래 기술에 따른 DFF 모듈을 도시한 도면이다.
도 4b는 본 발명의 일 실시예에 따른 DFF 모듈을 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 DCN 블록을 설명하기 위한 도면이다.
도 6은 앵커 그리드 셀에 표현된 객체 존재성 점수를 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에서의 ORH 신경망의 구조를 설명하기 위한 도면이다.
도 8은 극소형 객체가 존재하는 항공 영상을 대상으로 한 객체 검출 결과의 예시를 나타낸 도면이다.
도 9는 다양한 크기의 소형 객체가 존재하는 항공 영상을 대상으로 한 객체 검출 결과의 예시를 나타낸 도면이다.
도 10은 본 발명의 일 실시예에 따른 가이드 특징맵 기반 표적 탐지 방법의 순서도이다.
이하에 첨부되는 도면들은 본 실시 예에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 실시 예들을 제공한다. 다만, 본 실시 예의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 발명은 가이드 특징맵 기반 표적 탐지 장치(100) 및 방법에 관한 것이다.
본 발명의 일 실시예는 상기 언급된 문제점을 극복하고 소형 객체 검출에 특화된 YOLOv7F(Fusion) 신경망을 새롭게 적용하는 것을 특징으로 한다. 이 신경망은 기존 YOLOv7의 구조를 기반으로 소형 객체 검출에 특화된 구조적 설계 기법을 적용하여 설계되었다.
구체적으로, YOLOv7F 신경망은 소형 객체의 검출을 개선하기 위해 공간 정보의 왜곡을 방지하고 부정확한 객체 존재성 점수를 재조정하는 데 중점을 두었다. 이를 위해 본 발명의 일 실시예는 DFF(Deformable convolution Feature Fusion) 모듈을 도입하였다. DFF 모듈은 고해상도 특징의 공간 방향 정렬을 수행하여 소형 객체의 특징을 더욱 정확하게 추출할 수 있도록 한다.
뿐만 아니라, 본 발명의 일 실시예에서 YOLOv7F는 소형 객체와 배경을 더 정확하게 구별하기 위해 ORH(Objectness score Refinement Head) 신경망을 도입하였다. ORH 신경망은 부정확한 객체 존재성 점수를 재조정하여 객체의 존재 여부를 민감하게 판단할 수 있다.
이하에서는 도 3 내지 도 9를 참조하여 본 발명의 일 실시예에 따른 가이드 특징맵 기반 표적 탐지 장치(100)에 대해 설명하도록 한다.
도 3은 본 발명의 일 실시예에 따른 가이드 특징맵 기반 표적 탐지 장치(100)의 구성도이다.
본 발명의 일 실시예에 따른 가이드 특징맵 기반 표적 탐지 장치(100)는 백본 영역부(110), 넥 영역부(120) 및 헤드 영역부(130)를 포함한다. 이때, 본 발명의 일 실시예는 소형 객체 검출이 용이한 구조적 설계 기법이 백본 영역부(110)에 반영되어 있으며, 넥 영역부(120) 및 헤드 영역부(130)는 각각 DFF 모듈 및 ORH 신경망을 포함하는 것을 특징으로 한다. 즉, 백본 영역부(110)는 고해상도 특징 활용이 가능하도록 기존의 객체 검출기 신경망의 구조적 설계를 변경하였으며, 넥 영역부(120)는 다중 스케일 특징 융합을 위한 DFF 모듈이 특징 정렬을 수행하여 소형 객체의 공간 정보 왜곡을 최소화할 수 있다. 또한, 헤드 영역부(130)는 객체 검출기에서 예측된 소형 객체의 부정확한 객체 존재성 점수를 ORH 신경망을 통해 재조정하여 정확한 소형 객체 존재 유무를 판단할 수 있다.
보다 구체적으로, 본 발명의 일 실시예에서 백본 영역부(110)는 복수의 스테이지로 구성되며 입력 데이터를 대상으로 다중 스케일 특징 정보를 추출한다.
일 실시예로, 백본 영역부(110)는 입력 데이터로부터 합성곱 연산을 통해 초기의 저수준 특징을 유지하는 제1 스테이지와, 제1 스테이지로부터 출력되는 저수준 특징을 효율적 레이어 집계 네트워크(Efficient Layer Aggregation Networks, 이하 ELEN)을 통해 채널 수를 증가시키고 압축된 특징을 추출하는 제2 내지 제4 스테이지를 포함할 수 있다.
제2 내지 제4 스테이지는 각각 케스케이드 연결되어 이전의 출력 데이터를 입력받아 ELEN을 통해 소정의 처리를 수행한 후 출력 데이터를 다음 스테이지로 전달한다. 즉, 제1 스테이지로부터 출력되는 저수준 특징을 제2 스테이지에 입력하여 채널 수를 증가시키고 압축된 특징을 추출하고, 제2 스테이지로부터 출력되는 특징 정보를 제3 스테이지에 입력하여 채널 수를 증가시키고 압축된 특징을 추출하며, 제3 스테이지로부터 출력되는 특징 정보를 제4 스테이지에 입력하여 채널 수를 증가시키고 압축된 특징을 추출할 수 있다.
한편, 본 발명의 일 실시예는 다양한 신경망 스케일 계수에 따른 YOLOv7 신경망 가운데 본 발명에서 제안하는 YOLOv7F 신경망은 YOLOv7X 모델을 기반으로 소형 객체 검출에 초점을 맞춰 검출기 구조를 설계하였다. 종래 기술인 YOLOv7X 신경망과 동일한 백본 신경망을 사용하는 YOLOv7F 신경망은 다음과 같은 차이가 있다.
본 발명에서는 기존의 객체 검출기의 넥 영역에 해당하는 PAN(Path Aggregation Network)을 대체하기 위해 간소화된 Neck 구조를 적용하였다. 이 구조는 백본 신경망의 각 개별 단계(Stage)에서 차별화된 특징 표현력을 활용하였다.
또한, 본 발명의 일 실시예에서 백본 영역부(110)는 제1 내지 제4 스테이지에서 추출된 특징을 스킵-연결(Skip-Connection)을 통해 상기 다중 스케일 특징 정보로 구성하고, 다중 스케일 특징 정보를 업샘플링 및 다운샘플링 연산을 수행하여 넥 영역부(120)의 DFF 모듈로 전달함으로써 특징 융합이 이루어지도록 할 수 있다. 여기에서 DFF 모듈은 업샘플링 및 다운샘플링이 수행된 특징에 대해 특징 오정렬로 인한 공간 정보 왜곡 문제를 완화할 수 있다.
종래 기술에서는 YOLOv7 신경망의 헤드 영역이 객체의 종류, 객체 존재성 점수 및 회귀 값을 출력하여 대형 객체에 대한 검출 정확도는 높지만 소형 객체에 대한 정확도는 부족한 문제가 있었다. 특히, 대형 객체와 비교할 때 소형 객체에 대한 객체 존재성 점수가 부정확하여 발생한 문제이다. 이에 따라, 본 발명에서는 ORH 신경망을 도입하여 객체 존재성 점수를 재조정하여 정확한 소형 객체의 위치 추정을 수행하였다.
또한, 본 발명은 소형 객체 검출을 중점으로 하여, 제2 및 제3 스테이지의 다중 스케일 특징에서 객체 검출을 수행하여 다양한 크기의 객체를 효과적으로 검출하였다. 이로써 전체적인 객체 검출 성능을 향상시킬 수 있으며, 특히 소형 객체에 대한 정확한 검출이 가능하도록 한다.
도 4a는 종래 기술에 따른 DFF 모듈을 도시한 도면이다. 도 4b는 본 발명의 일 실시예에 따른 DFF 모듈을 도시한 도면이다.
먼저 도 4a를 참조하면, 다수의 YOLO 기반 종래 기술은 추가적인 객체 검출기 신경망의 계산 비용을 고려하여 동일한 해상도 특징에서 특징 융합을 수행하기 위해 연결(Concatenation) 연산을 사용하여 도 4a와 같은 특징 융합을 수행한다. 이러한 다중 스케일 특징의 연결(Concatenation) 연산은 하나의 특징을 중심으로 수행되며, 이때 평균 풀링(Average pooling)과 Bilinear 보간법을 사용하여 특징 해상도를 변경하는 작업이 필요다. 그러나 해당 작업에서는 공간 정보 왜곡 문제가 발생할 수 있다.
이러한 문제를 해소하기 위해, 본 발명의 일 실시예는 도 4b와 같이 넥 영역부(120)는 다중 스케일 특징 정보에 대한 특징 오정렬에 따른 공간 왜곡을 저감시키도록 특징 정렬을 수행한다. 보다 구체적으로, 넥 영역부(120)는 백본 영역부(110)의 특정 스테이지에서의 특징 정보를 중심으로 상위 및 하위 스테이지에서의 특징 정보들을 대상으로 해상도를 변경하고, DCN(Deformable Convolution Net) 오프셋이 적용된 비고정 커널을 적용하여 특징 정렬을 수행하는 DFF 모듈을 포함한다. 이때, DFF 모듈은 특정 스테이지에서의 특징 정보를 참고 특징으로 설정하고, 상위 및 하위 스테이지에서의 특징 정보를 이웃 특징으로 설정한 후, 참고 특징과 이웃 특징이 유사해지도록 학습을 수행할 수 있다.
본 발명의 일 실시예에서 적용한 YOLOv7F 신경망은 특징의 공간 정보 왜곡을 고려하여 최소의 스케일 계수(Scale factor)를 사용하여 특징 해상도 변경 작업을 수행한다.
이로써 검출기의 넥 영역부(120)에 위치한 ELEN 블록과 동일한 백본(Encoder) 신경망의 i 단계 특징인 의 중심으로부터 상위 및 하위에 해당하는 단계 특징들에서 특징 해상도 변경 작업을 수행한다. 이 과정에서는 최소의 스케일 계수를 사용하여 공간 정보의 왜곡을 최소화하며, DFF 모듈의 입력은 으로 구성된다. 이렇게 구성된 입력은 효율적인 특징 융합을 위해 다양한 스케일의 특징을 활용하며, 객체 검출 정확도를 향상시킬 수 있다.
도 5는 본 발명의 일 실시예에 따른 DCN 블록을 설명하기 위한 도면이다.
본 발명의 일 실시예는 도 4b와 같은 DFF 모듈의 특징은 해상도 변경 작업이 수행된 특징에서 수행되며, DCN 오프셋이 적용된 고정되지 않은 커널을 사용하여 도 5와 같은 특징 정렬을 수행할 수 있다.
구체적으로 DFF 모듈에서 을 각각 참고(Reference) 특징, 이웃(Neighboring) 특징으로 설정하였다. 이때, 이웃 특징의 정렬을 위한 DCN 연산의 파라미터 는 다음 식 1과 같다.
[식 1]
식 1에서 는 Offset 컨볼루션 커널을 의미하며, 커널 컨볼루션의 일반적인 그리드(Grid)를 의미한다. 또한, 은 연결(Concatenation) 연산을 의미한다. Offset 컨볼루션 커널에 따라 DCN 연산으로 정렬된 이웃 특징 에서 개별 포지션 는 식 2와 같이 특징이 추출된다.
[식 2]
식 2에서 에 따라 컨볼루션 연산은 불규칙한 포지션 에서 특징 추출을 진행하며, 이웃 특징을 정렬한다. 본 발명의 일 실시예는 DFF 모듈의 효과적인 특징 정렬 수행을 목표로 하여, 이웃 특징과 참고 특징이 유사하도록 학습한다. 즉, DFF 모듈은 참고 특징을 정답 데이터로 설정하고 평균 제곱 오차(MSE, Mean Squared Error) 기반의 손실 함수를 설정하여 특징 정렬을 수행할 수 있다.
[식 3]
이때, 특징 정렬 손실 함수 는 식 3과 같으며, 특징 융합 이전에 이웃 특징의 소형 객체의 공간정보의 효과적인 특징 정렬이 가능하다. YOLOv7F 신경망은 최종적으로 검출기의 넥 영역부(120)에 DFF 모듈을 적용하여 다중 스케일 특징 융합을 수행한다.도 6은 앵커 그리드 셀에 표현된 객체 존재성 점수를 설명하기 위한 도면이다. 도 7은 본 발명의 일 실시예에서의 ORH 신경망의 구조를 설명하기 위한 도면이다.
다음으로, 헤드 영역부(130)는 특징 정렬된 결과를 대상으로 객체 존재성 점수를 재조정하여 소형 객체의 위치를 추정한다.
도 6의 (a)를 참조하면, 앵커 그리드(Anchor grid)의 개별 셀에서의 객체 존재 유무를 표현하는 객체 존재성 점수는 IoU 값의 영향을 받으며, 소형 객체의 위치 추정이 부정확하다. 특히, 종래 기술인 YOLOv7 신경망은 민감한 IoU 값에 영향을 받아 소형 객체 검출 정확도 성능이 좋지 않다. 따라서, 그림 6의 (b)와 같이 앵커 그리드를 표현하는 객체 존재성 점수 맵(Objectness score map)에서의 소형 객체의 존재 유무는 정확하지 못하다.
이와 달리, 본 발명의 일 실시예는 헤드 영역부(130)가 병목 구조의 소정 크기의 컨볼루션 연산 기반으로 설계되어 재조정 객체 존재성 점수를 예측하는 ORH(Objectness score Refinement Hean) 신경망을 포함하며, ORH 모델을 통해 객체 존재성 점수를 재조정하여 소형 객체의 정확한 객체 존재 유무를 학습할 수 있다.
구체적으로, 본 발명의 일 실시예에서 헤드 영역부(130)는 재조정 객체 존재성 점수를 기반으로 객체 존재성 점수를 보정하여 객체 존재 여부를 학습할 수 있다.
여기에서, ORH 신경망은 객체 존재성 점수 을 보정하는 역할을 수행하며, 커널 컨볼루션 연산을 중심으로 병목(Bottleneck) 구조를 갖는다. 일 실시예로, 헤드 영역부(130)는 식 4에 나타난 바와 같이 ORH 신경망을 사용하여 예측한 재조정 객체 존재성 점수 으로 보정된 객체 존재성 점수 을 사용하여 객체 존재 유무를 학습할 수 있다. 이때, 는 정답 데이터 와 같이 포컬(Focal) 손실 함수를 사용하여 기존 객체 존재성 손실 함수 로 학습된다.
[식 4]
이때, 식 4에서 는 포컬 손실 함수의 하이퍼 파라미터(Hyper-parameter)을 의미한다.한편, ORH 신경망에서 예측된 을 단일 객체 존재성 손실 함수 로 학습하는 경우, 객체 검출 정확도가 미세하게 향상하는 한계가 있었다. 따라서, 본 발명의 일 실시예는 추가적으로 재조정 객체 존재성 손실 함수 을 사용하여 ORH 신경망을 학습하였다.
이때, 은 바이너리 크로스 엔트로피(BCE, Binary Cross Entropy) 기반의 손실 함수를 적용하여 ORH 신경망을 학습한다. 의 정답 데이터 에 대해 가우시안(Gaussian) 커널을 사용하여 의 정답 데이터를 검출기 Head의 단계에 따라 계산하였으며, 이는 식 5와 같이 나타낼 수 있다.
[식 5]
이때, 식 5에서 표준편차 으로 설정하여 객체 크기를 고려하여 의 정답 데이터를 설정하였다. 이와 같은 본 발명의 일 실시예에서 적용된 ORH 신경망은 YOLOv7F 신경망에서 소형 객체를 검출하는 제2 및 제3 스테이지의 검출기 헤드 영역부(130)에 결합되어 원활한 소형 객체 검출이 가능하도록 한다.최종적으로 을 포함하는 객체 검출기 손실 함수 와 제안하는 DFF 모듈, 그리고 ORH 신경망을 학습하는 전체적인 손실 함수 은 다음 식 6과 같이 나타낼 수 있다.
[식 6]
이때, 식 6에서 특별한 경우를 제외한 경우, 하이퍼 파리미터 , 는 0.001, 0.1으로 설정할 수 있다. 이러한 손실 함수를 사용하여 본 발명에서 제안하는 YOLOv7F 신경망은 소형 객체 검출 정확도가 향상됨을 확인할 수 있다.도 8은 극소형 객체가 존재하는 항공 영상을 대상으로 한 객체 검출 결과의 예시를 나타낸 도면이다. 도 9는 다양한 크기의 소형 객체가 존재하는 항공 영상을 대상으로 한 객체 검출 결과의 예시를 나타낸 도면이다.
도 8과 도 9는 항공 영상을 신경망의 입력으로 사용하여 종래 기술과 본 발명에 해당하는 YOLOv7F 신경망을 사용하여 표적을 탐지한 결과이다. 종래 기술에 해당하는 YOLOv7X 신경망을 SimOTA 정답 데이터 할당을 사용하여 학습하는 경우, 낮은 경계 상자 크기 추정 능력에 따라 신경망 학습이 불가능한 문제가 있었다. 따라서, YOLOv5l 신경망에서 사용하는 기본적인 정답 데이터 할당 기술을 사용하여 학습을 진행하였다.
반면, 본 발명에 따른 YOLOv7F 신경망은 향상된 경계 상자 크기 추정 성능에 따라 SimOTA 정답 데이터 할당을 사용하여 학습을 진행하였다. 정성적 평가 결과, 종래 기술인 YOLv7X 신경망 대비 본 발명에 따른 YOLOv7F 신경망은 도 8과 같이 극소형(표1, Very tiny) 표적에 대한 탐지 성능이 향상되었음을 확인할 수 있다. 또한, 도 9와 같은 다양한 크기의 소형 객체(표1, Small 이하)의 검출이 가능함을 확인할 수 있다. 상기 결과에 따라 본 발명에 따른 YOLOv7F 신경망은 소형 객체 검출 정확도 성능이 향상된 것이 확인 가능하다.
Model Img size Params FLOPs mAP(0.5) mAP(0.5:0.9) mAP vt mAP t mAP s mAP m
YOLOv5l 640 46.12M 107.9G 54.0 21.7 8.2 21.0 28.4 35.0
YOLOv7X 70.84M 188.2G 59.8 25.2 9.3 24.9 32.1 40.2
YOLOv7F
(본 발명)
14.61M 197.3G 63.9 27.8 13.1 28.2 34.7 34.7
표 2는 항공 영상으로 구성된 AI-TOD 데이터세트에서 본 발명에 따른 YOLOv7F 신경망을 정량적으로 평가한 결과이다. 실험 결과, YOLOv7F 신경망은 타 종래 기술들 대비 가장 높은 63.9 성능을 달성하였다. 세부적으로 YOLOv7X 신경망 대비 , , 성능이 각 40.8 %, 13.3 %, 8.1 % 향상되었음을 확인할 수 있다.도 10은 본 발명의 일 실시예에 따른 가이드 특징맵 기반 표적 탐지 방법의 순서도이다.
본 발명의 일 실시예에 따른 가이드 특징맵 기반 표적 탐지 방법은 먼저, 백본 영역부(110)에서 입력 데이터를 대상으로 복수의 스테이지를 통해 다중 스케일 특징 정보를 추출한다(S110).
다음으로, 넥 영역부(120)에서 다중 스케일 특징 정보에 대한 특징 오정렬에 따른 공간 왜곡을 저감시키도록 특징 정렬을 수행한다(S120).
다음으로, 헤드 영역부(130)에서 특징 정렬된 결과를 대상으로 객체 존재성 점수를 재조정하여 소형 객체의 위치를 추정한다(S130).
한편, 상술한 설명에서, 단계 S110 내지 S130는 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. 아울러, 기타 생략된 내용이라 하더라도 도 3 내지 도 9에 기술된 내용과 도 10에 기술된 내용은 상호 적용될 수 있다.
이상에서 전술한 본 발명의 일 실시예에 따른 가이드 특징맵 기반 표적 탐지 장치(100) 및 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, Ruby, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100: 가이드 특징맵 기반 표적 탐지 장치
110: 백본 영역부
120: 넥 영역부
130: 헤드 영역부

Claims (16)

  1. 가이드 특징맵 기반 표적 탐지 장치에 있어서,
    복수의 스테이지로 구성되며 입력 데이터를 대상으로 다중 스케일 특징 정보를 추출하는 백본 영역부,
    상기 다중 스케일 특징 정보에 대한 특징 오정렬에 따른 공간 왜곡을 저감시키도록 특징 정렬을 수행하는 넥 영역부 및
    상기 특징 정렬된 결과를 대상으로 객체 존재성 점수를 재조정하여 소형 객체의 위치를 추정하는 헤드 영역부를 포함하고,
    상기 백본 영역부는 상기 입력 데이터로부터 합성곱 연산을 통해 초기의 저수준 특징을 추출하는 제1 스테이지와, 상기 제1 스테이지로부터 출력되는 저수준 특징을 효율적 레이어 집계 네트워크(Efficient Layer Aggregation Networks, 이하 ELEN)을 통해 채널 수를 증가시키고 압축된 특징을 추출하는 제2 내지 제4 스테이지를 포함하며,
    상기 백본 영역부는 상기 제1 내지 제4 스테이지에서 추출된 특징을 스킵-연결(Skip-Connection)을 통해 상기 다중 스케일 특징 정보로 구성하고, 상기 다중 스케일 특징 정보를 업샘플링 및 다운샘플링 연산을 수행하여 상기 넥 영역부의 DFF 모듈로 전달하고,
    상기 넥 영역부는 상기 백본 영역부의 특정 스테이지에서의 특징 정보를 중심으로 상위 및 하위 스테이지에서의 특징 정보들을 대상으로 해상도를 변경하고, DCN(Deformable Convolution Net) 오프셋이 적용된 비고정 커널을 적용하여 특징 정렬을 수행하는 DFF(Deformable convolution Feature Fusion) 모듈을 포함하며,
    상기 DFF 모듈은 상기 특정 스테이지에서의 특징 정보를 참고 특징으로 설정하고, 상기 상위 및 하위 스테이지에서의 특징 정보를 이웃 특징으로 설정한 후, 상기 참고 특징과 이웃 특징이 유사해지도록 학습을 수행하고,
    상기 DFF 모듈은 상기 참고 특징을 정답 데이터로 설정하고 평균 제곱 오차 기반의 손실함수를 설정하여 상기 특징 정렬을 수행하며,
    상기 헤드 영역부는 병목 구조의 소정 크기의 컨볼루션 연산 기반으로 설계되어 재조정 객체 존재성 점수를 예측하는 ORH(Objectness score Refinement Hean) 신경망을 포함하고, 상기 재조정 객체 존재성 점수를 기반으로 상기 객체 존재성 점수를 보정하여 객체 존재 여부를 학습하고,
    상기 헤드 영역부는 바이너리 크로스 엔트로피 기반의 손실함수 형태의 재조정 객체 존재성 손실함수를 적용하여 상기 ORH 신경망을 학습하는 것인, 가이드 특징맵 기반 표적 탐지 장치.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 가이드 특징맵 기반 표적 탐지 장치에 의해 수행되는 방법에 있어서,
    백본 영역부에서 입력 데이터를 대상으로 복수의 스테이지를 통해 다중 스케일 특징 정보를 추출하는 단계;
    넥 영역부에서 상기 다중 스케일 특징 정보에 대한 특징 오정렬에 따른 공간 왜곡을 저감시키도록 특징 정렬을 수행하는 단계; 및
    헤드 영역부에서 상기 특징 정렬된 결과를 대상으로 객체 존재성 점수를 재조정하여 소형 객체의 위치를 추정하는 단계를 포함하고,
    상기 백본 영역부에서 입력 데이터를 대상으로 복수의 스테이지를 통해 다중 스케일 특징 정보를 추출하는 단계는,
    상기 입력 데이터를 제1 스테이지에 입력하여 합성곱 연산을 통해 초기의 저수준 특징을 추출하는 단계;
    상기 제1 스테이지로부터 출력되는 저수준 특징을 효율적 레이어 집계 네트워크(Efficient Layer Aggregation Networks, 이하 ELEN)로 구성되는 제2 스테이지에 입력하여 채널 수를 증가시키고 압축된 특징을 추출하는 단계;
    상기 제2 스테이지로부터 출력되는 특징 정보를 상기 효율적 레이어 집계 네트워크로 구성되는 제3 스테이지에 입력하여 채널 수를 증가시키고 압축된 특징을 추출하는 단계; 및
    상기 제3 스테이지로부터 출력되는 특징 정보를 상기 효율적 레이어 집계 네트워크로 구성되는 제4 스테이지에 입력하여 채널 수를 증가시키고 압축된 특징을 추출하는 단계를 포함하며,
    상기 백본 영역부에서 입력 데이터를 대상으로 복수의 스테이지를 통해 다중 스케일 특징 정보를 추출하는 단계는,
    상기 제1 내지 제4 스테이지에서 추출된 특징을 스킵-연결(Skip-Connection)을 통해 상기 다중 스케일 특징 정보로 구성하는 단계; 및
    상기 다중 스케일 특징 정보를 업샘플링 및 다운샘플링 연산을 수행하여 상기 넥 영역부의 DFF 모듈로 전달하는 단계를 포함하고,
    상기 넥 영역부에서 상기 다중 스케일 특징 정보에 대한 특징 오정렬에 따른 공간 왜곡을 저감시키도록 특징 정렬을 수행하는 단계는,
    상기 백본 영역부의 특정 스테이지에서의 특징 정보를 중심으로 상위 및 하위 스테이지에서의 특징 정보들을 대상으로 해상도를 변경하는 단계; 및
    DCN(Deformable Convolution Net) 오프셋이 적용된 비고정 커널이 적용된 DFF(Deformable convolution Feature Fusion) 모듈을 통해 특징 정렬을 수행하는 단계를 포함하며,
    상기 DFF 모듈을 통해 특징 정렬을 수행하는 단계는,
    상기 특정 스테이지에서의 특징 정보를 참고 특징으로 설정하는 단계;
    상기 상위 및 하위 스테이지에서의 특징 정보를 이웃 특징으로 설정하는 단계; 및
    상기 참고 특징과 이웃 특징이 유사해지도록 학습을 수행하는 단계를 포함하고,
    상기 참고 특징과 이웃 특징이 유사해지도록 학습을 수행하는 단계는,
    상기 참고 특징을 정답 데이터로 설정하고 평균 제곱 오차 기반의 손실함수를 설정하여 상기 특징 정렬을 수행하며,
    상기 헤드 영역부에서 상기 특징 정렬된 결과를 대상으로 객체 존재성 점수를 재조정하여 소형 객체의 위치를 추정하는 단계는,
    병목 구조의 소정 크기의 컨볼루션 연산 기반으로 설계된 ORH(Objectness score Refinement Hean) 신경망을 기반으로 재조정 객체 존재성 점수를 예측하는 단계; 및
    상기 재조정 객체 존재성 점수를 기반으로 상기 객체 존재성 점수를 보정하여 객체 존재 여부를 학습하는 단계를 포함하고,
    상기 재조정 객체 존재성 점수를 기반으로 상기 객체 존재성 점수를 보정하여 객체 존재 여부를 학습하는 단계는,
    상기 헤드 영역부는 바이너리 크로스 엔트로피 기반의 손실함수 형태의 재조정 객체 존재성 손실함수를 적용하여 상기 ORH 신경망을 학습하는 것인, 가이드 특징맵 기반 표적 탐지 방법.
  10. 삭제
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
KR1020240010050A 2024-01-23 2024-01-23 가이드 특징맵 기반 표적 탐지 장치 및 방법 KR102655237B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020240010050A KR102655237B1 (ko) 2024-01-23 2024-01-23 가이드 특징맵 기반 표적 탐지 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020240010050A KR102655237B1 (ko) 2024-01-23 2024-01-23 가이드 특징맵 기반 표적 탐지 장치 및 방법

Publications (1)

Publication Number Publication Date
KR102655237B1 true KR102655237B1 (ko) 2024-04-08

Family

ID=90715030

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020240010050A KR102655237B1 (ko) 2024-01-23 2024-01-23 가이드 특징맵 기반 표적 탐지 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102655237B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118134912A (zh) * 2024-05-06 2024-06-04 华东交通大学 一种混凝土公路路面裂缝智能检测方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200143193A (ko) * 2019-06-13 2020-12-23 네이버 주식회사 객체인식장치 및 객체인식방법
KR102589551B1 (ko) * 2022-10-12 2023-10-13 중앙대학교 산학협력단 다중 스케일 객체 검출 방법 및 그 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200143193A (ko) * 2019-06-13 2020-12-23 네이버 주식회사 객체인식장치 및 객체인식방법
KR102589551B1 (ko) * 2022-10-12 2023-10-13 중앙대학교 산학협력단 다중 스케일 객체 검출 방법 및 그 장치

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Adekanmi Adeyinka Adegun, et al., ‘State-of-the-Art Deep Learning Methods for Objects Detection in Remote Sensing Satellite Images’, Sensors 2023, 23(13), 5849, pages 1-18. (2023.06.23.) *
YANLI SHI et al., ‘SC-YOLO: A Object Detection Model for Small Traffic Signs’, IEEE Access (Volume:11), pages 11500-11510, (2023.01.31.) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118134912A (zh) * 2024-05-06 2024-06-04 华东交通大学 一种混凝土公路路面裂缝智能检测方法及系统

Similar Documents

Publication Publication Date Title
US20220230420A1 (en) Artificial intelligence-based object detection method and apparatus, device, and storage medium
WO2023015941A1 (zh) 文本检测模型的训练方法和检测文本方法、装置和设备
KR102655237B1 (ko) 가이드 특징맵 기반 표적 탐지 장치 및 방법
CN110782420A (zh) 一种基于深度学习的小目标特征表示增强方法
CN110853033A (zh) 基于帧间相似度的视频检测方法和装置
Yuan Face detection and recognition based on visual attention mechanism guidance model in unrestricted posture
US20240193923A1 (en) Method of training target object detection model, method of detecting target object, electronic device and storage medium
CN113239914B (zh) 课堂学生表情识别及课堂状态评估方法、装置
US20240095927A1 (en) Segmentation Models Having Improved Strong Mask Generalization
CN114419428A (zh) 一种目标检测方法、目标检测装置和计算机可读存储介质
CN115690545A (zh) 训练目标跟踪模型和目标跟踪的方法和装置
CN113901924A (zh) 一种文档表格的检测方法及装置
Tang et al. A multi-view SAR target recognition method using feature fusion and joint classification
CN112365451A (zh) 图像质量等级的确定方法、装置、设备及计算机可读介质
CN115187995B (zh) 文档矫正方法、装置、电子设备和存储介质
CN116994175A (zh) 深度伪造视频的时空结合检测方法、装置及设备
CN115953744A (zh) 一种基于深度学习的车辆识别追踪方法
Zan et al. Defect Identification of Power Line Insulators Based on a MobileViT‐Yolo Deep Learning Algorithm
CN114419327A (zh) 图像检测方法和图像检测模型的训练方法、装置
CN111414889B (zh) 基于文字识别的财务报表识别方法及装置
CN116363656A (zh) 包含多行文本的图像识别方法、装置及计算机设备
Ding et al. Research on Intelligent Estimation Method of Human Moving Target Pose Based on Adaptive Attention Mechanism
Yuan et al. Self-supervised discriminative model prediction for visual tracking
CN116071773B (zh) 检测电网建设类档案中表格的方法、装置、介质和设备
Liu et al. [Retracted] Target Recognition Technology of Multimedia Platform Based on a Convolutional Neural Network

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant