KR102130664B1 - 영상정보에 기초한 자율 전차탐지 및 조준점 탐색방법 - Google Patents

영상정보에 기초한 자율 전차탐지 및 조준점 탐색방법 Download PDF

Info

Publication number
KR102130664B1
KR102130664B1 KR1020190075369A KR20190075369A KR102130664B1 KR 102130664 B1 KR102130664 B1 KR 102130664B1 KR 1020190075369 A KR1020190075369 A KR 1020190075369A KR 20190075369 A KR20190075369 A KR 20190075369A KR 102130664 B1 KR102130664 B1 KR 102130664B1
Authority
KR
South Korea
Prior art keywords
tank
vehicle
aiming
aiming point
coordinates
Prior art date
Application number
KR1020190075369A
Other languages
English (en)
Inventor
김종환
Original Assignee
대한민국
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국 filed Critical 대한민국
Priority to KR1020190075369A priority Critical patent/KR102130664B1/ko
Application granted granted Critical
Publication of KR102130664B1 publication Critical patent/KR102130664B1/ko

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/26Teaching or practice apparatus for gun-aiming or gun-laying
    • G06K9/00711
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 지상무인전투체계 중 하나인 무인경전투차량이 RGB 영상정보를 기초로 스스로 전차를 탐지하고 조준점을 산출하는 지능형 포적획득/처리기술 방법 및 시스템에 관한 것으로서, 보다 구체적으로는 전차표적 특징추출부가 특징정합을 통해 전차표적의 특징을 추출하는 전차표적 특징추출단계, 전차 추출부가 k-평균 클러스터링 알고리즘을 통해 상기 전차를 추출하는 전차 추출단계, 전차 외형 식별부가 소벨 윤곽선 검출방법을 이용하여 상기 전차의 외형을 식별하는 전차 외형 식별단계, 전차 조준점 산출부가 상기 외형의 모든 좌표와 임의의 조준좌표와의 거리상 평균제곱오차의 합이 최소가 되게 하는 조준좌표를 산출하는 조준점 산출단계를 포함하는 것을 특징으로 한느 영상정보에 기초한 전차 조준점 탐색방법 및 탐색시스템에 관한 것이다.

Description

영상정보에 기초한 자율 전차탐지 및 조준점 탐색방법{Autonomous tram detection based on image information and search method of aim point}
본 발명은 지상무인전투체계 중의 하나인 무인경전투차량이 RGB 영상정보를 기초로 스스로 전차를 탐지하고 조준점을 산출하는 지능형 표적획득/처리기술에 대한 발명이다.
지상무인전투체계(Unmanned Ground Combat Vehicle)는 ‘위험지역에서의 인명피해를 최소화하고 운용인력을 절감하며, 인간의 능력을 초월하는 수준의 임무를 수행함으로써 기존 유인전투체계와의 통합운용을 통해 인간 위주의 전투체계를 보완하여 전투효율성을 극대화한 체계’로 정의된다. 또한, 지상무인전투체계는 빠르게 진화하고 있는 첨단 과학기술과 인명 및 전투효율성을 중시하는 미래전 양상에 의해 차세대 지상무기체계로 각광을 받고 있으며, 육군의 운용개념 및 요구조건을 충족할 수 있는 다양한 핵심기술들이 활발히 개발되고 있다.
무인전투체계의 선두주자인 미국은 미래전투체계(FCS: Future Combat System)를 시작으로, 적 위협에 대해 높은 생존성, 화력 그리고 전투효율성을 갖출 뿐만 아니라, 최신전투개념에 적합하며 전투시 인명손실을 최소화할 수 있는 다양한 형태의 지상무인전투체계를 개발하고 있다. 뿐만 아니라, 이라크 및 아프가니스탄 등의 실제 전장에서 경전투, 지뢰 및 폭발물 처리, 수송, 감시/수색정찰 등의 임무수행을 통해 누적된 데이터를 기반으로 지상무인전투체계의 전술적/전략적 운용을 위한 핵심기술 개발에 매진하고 있다. 이스라엘은 주변국들과의 종교ㆍ영토적 마찰로 인해 중동전쟁 이후에도 항시 전쟁위협에 노출되고 있으며, 전투원의 손실을 최소화하고 효율적인 국경선 감시 및 전투 임무수행을 위해 지상무인전투체계의 기술개발 및 전력화를 지속적으로 추진하고 있다. 우리군은 국방과학연구소를 중심으로 감시/정찰, 경계, 화생방탐지, 지뢰탐지 및 제거, 수송 등의 임무수행을 위한 다양한 형태의 무인전투체계를 개발하고 있으며, 다중센서 기반 자율주행 기술을 통해 견마로봇의 자율주행 수준을 지속적으로 향상시키고 있다.
지상무인전투체계의 기술은 체계종합기술을 비롯한 8개의 핵심기술로 구성된다. 이중 탐지기술 및 인식/처리기술은 지상무인전투체계가 다중센서를 통해 자율적으로 표적을 획득하고 처리하는 지능형 표적획득/처리를 위한 핵심기술로서 무인전투체계가 보유해야할 중요한 기술 중의 하나이다. 그러나 지능형 표적획득/처리기술은 실제 위협표적에 대한 원천 데이터의 부족과 가변적이고 불확실한 전장환경 속에서 높은 신뢰성을 갖는 표적탐지 기술성숙의 미흡으로 인하여 지금까지 연구개발에 많은 어려움이 존재하였다.
최근 지능형 표적획득/처리기술과 관련하여, 컴퓨터 비전(CV: Computer Vision)을 활용한 영상처리기법, 무인자동차의 안정된 운용을 위한 차량 및 보행자 인식 등의 연구를 통해 실시간으로 물체를 자동탐지/식별/인식/추적할 수 있는 핵심기술들이 비군사적인 목적으로 활발히 개발되고 있다. 특히, 딥러닝(Deep Learning) 기반 인공지능(AI: Artificial Intelligence)을 활용한 영상인식(Image Recognition)을 통하여 탐지/식별/인식의 정확도는 크게 향상되어 높은 수준의 신뢰성을 제공하고 있으나 아직까지 군사적 목적으로 활용된 연구는 미흡한 실정이다.
본 발명에서 해결하고자 하는 과제는 전장에서 무인경전투차량이 적 전차를 자동으로 탐지하고 스스로 조준하는 기술을 개발하기 위하여, 영상정보로부터 전차의 주요특징을 식별 및 추출하고, 영상처리기법 및 인공지능 알고리즘을 통해 전차를 주변환경으로부터 추출하며, 식별된 전차의 외형정보를 기초로 전차 상하좌우의 중앙지점을 지향하는 조준점을 산출하는 것이다.
또한, 본 발명에서 해결하고자 하는 또 다른 과제는, 연구성능을 객관적으로 평가하기 위해 전차탐지에 대한 정확도(Accuracy), 정밀도(Precision), 재현율(Recall) 그리고 F-measure를 분석하는 것이다.
본 발명의 일 실시예에 따른 영상정보에 기초한 전차 조준점 탐색방법은 전차표적 특징추출부가 특징정합을 통해 전차표적의 특징을 추출하는 전차표적 특징추출단계, 전차 추출부가 k-평균 클러스터링 알고리즘을 통해 상기 전차를 추출하는 전차 추출단계, 전차 외형 식별부가 소벨 윤곽선 검출방법을 이용하여 상기 전차의 외형을 식별하는 전차 외형 식별단계, 전차 조준점 산출부가 상기 외형의 모든 좌표와 임의의 조준좌표와의 거리상 평균제곱오차의 합이 최소가 되게 하는 상기 조준좌표를 산출하는 조준점 산출단계를 포함하는 것을 특징으로 한다.
본 발명의 다른 실시예에 따르면, 전차 조준점 탐색방법의 특징정합은 MSER(Maximally Stable Extremal Regions) 기법을 통해 처리된 영상을 이용하는 것을 특징으로 한다.
본 발명의 다른 실시예에 따르면, 전차 조준점 탐색방법의 k-평균 클러스터링 알고리즘은 임의의 데이터를 유사도에 기초하여 k개의 클러스터로 자동 분할하는 기법인 것을 특징으로 한다.
본 발명의 다른 실시예에 따르면, 전차 조준점 탐색방법의 전차 추출단계는 중간값 필터(Median filter)가 적용된 이미지를 상기 k-평균 클러스터링 알고리즘에 의해 상기 전차를 추출하는 것을 특징으로 한다.
본 발명의 다른 실시예에 따르면, 전차 조준점 탐색방법의 전차 외형 식별단계는 모포로지컬 이미지 처리(Morphological image processing)를 통해 노이즈를 제거한 후 소벨 윤곽선 검출방법을 적용하는 것을 특징으로 한다.
본 발명의 다른 실시예에 따르면, 영상정보에 전차 조준점 탐색방법은 특징정합을 이용하여 전차표적의 특징을 추출하는 전차표적 특징추출부, k-평균 클러스터링 알고리즘을 이용하여 전차를 추출하는 전차 추출부, 소벨 윤곽선 검출방법을 이용하여 전차의 외형을 식별하는 전차 외형 식별부, 외형의 모든 좌표와 임의의 조준좌표와의 거리상 평균제곱오차의 합이 최소가 되게 하는 조준좌표를 산출하는 전차 조준점 산출부를 포함하는 것을 특징으로 한다.
본 발명에 따른 영상정보에 기초한 자율 전차탐지 및 조준점 탐색방법은 인공지능과 머신러닝기법을 이용하여 전차탐지 및 조준점을 보다 정밀하게 탐색할 수 있는 효과가 있다.
본 발명에 따른 영상정보에 기초한 자율 전차탐지 및 조준점 탐색방법의 또 다른 효과는 전투상황에서 적 전차가 등장하였을 경우 무인전투체계가 스스로 전차를 탐지하고 조준점을 산출하여, 기준의 방식보다 신속한 타격을 가능하게 한다.
본 발명에 따른 영상정보에 기초한 자율 전차탐지 및 조준점 탐색방법의 또 다른 효과는 드론봇전투체계에도 적용이 가능하여, 드론봇전투체계에 의한 직접타격을 가능케 하고, 간접타격에 필요한 조준점 좌표를 전송하여 간접타격을 유도할 수 있다.
도1은 본 발명의 일 실시예에 따른 전차의 조준점 탐색방법의 순서를 나타낸 순서도이다.
도2는 본 발명의 일 실시예에 따른 전차표적 특징추출단계의 원리를 설명하기 위해 도시한 도면이다.
도3은 본 발명의 일 실시예에 따른 전차 추출단계, 전차 외형 식별단계 및 조준점 산출단계의 원리를 설명하기 위해 도시한 도면이다.
도4는 본 발명의 일 실시예에 따른 전차의 조준점 탐색 시스템을 도시한 블록도이다.
도5는 본 발명의 일 실시예에 따른 전차의 조준점 탐색방법의 성능을 평가하기 위한 데이터를 도시한 도면이다.
도6은 본 발명의 일 실시예에 따른 전차의 조준점 탐색방법의 성능을 평가한 결과를 도시한 도면이다.
이하, 본 발명을 설명함에 있어서 관련된 공지기능에 대하여 이 분야의 기술자에게 자명한 사항으로서 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요서, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 본 발명에 따른 ‘영상정보에 기초한 자율 전차탐지 및 조준점 탐색방법’의 실시예를 첨부 도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
이하에서는 본 발명의 일 실시예에 따른 전차의 조준점 탐색방법에 대해 기술한다. 본 발명의 일 실시예는 영상정보에 기초한 전차의 조준점 탐색방법에 있어서, 전차표적 특징추출부(100)가 특징정합을 통한 전차표적 특징추출단계(S100); 전차 추출부(200)가 k-평균 클러스터링 알고리즘을 통한 전차 추출단계(S200); 전차 외형 식별부(300)가 소벨 윤곽선 검출방법을 이용하여 상기 전차의 외형을 식별하는 전차 외형 식별단계(S300); 전차 조준점 산출부(400)가 상기 외형의 모든 좌표와 임의의 조준좌표와의 거리상 평균제곱오차의 합이 최소가 되게하는 상기 조준좌표를 산출하는 조준점 산출단계(S400);를 포함하는 전차의 조준점 탐색방법이다. 이하 각 단계를 구체적으로 기술한다.
1 단계 : 전차표적 특징추출단계(S100)
전차는 일반 물체와 달리 독특한 외적 형상 및 저 피탐지를 위한 전술적 위장 등을 갖추고 있을 뿐만 아니라 포탑과 차체가 서로 독립적이고 역동적으로 운용되기 때문에 컴퓨터 비전에서 일반적으로 사용되는 특징추출을 적용하는데 어려움이 존재한다. 이에, 영상정보로부터 독특한 특징과 역동적인 움직임을 보유한 전차를 추출하기 위해선 전차의 특징점(Feature Point) 분석과 역동적인 움직임에 강인한 영상처리기법(Image Processing)이 필요하였다. 컴퓨터 비전 영역에서 연구된 다양한 영상처리기법 중 MSER(Maximally Stable Extremal Regions)은 특징추출에 높은 성능을 보여주는 영역 검출기의 하나로 밝기, 색상, 형태 등의 특징점을 식별 및 검출하는데 활용된다. 또한, 이것은 물체의 위치, 회전, 크기, 시점, 밝기 등의 외부 변화에 강인한 장점을 가져 문자식별 및 특징추출을 위한 영상처리에 폭넓게 활용되고 있다. 도2(b)에 제시된 바와 같이, 원본 전차 이미지로부터 100여개의 MSER 특징을 식별하였고, 도2(c)에 나타난바와 같이, 좌측 사진에 제시된 전차의 MSER 특징을 기준으로 동영상으로 재생되는 각각의 영상 프레임별 전차 특징정합(Feature Matching)을 통해 각 프레임별 영상상의 전차 ROI를 설정하였다. 도2(d)에 나타난 바와 같이, 각 프레임별 영상내의 전차 ROI가 황색 사각형으로 표현되고 있음을 확인할 수 있다.
2 단계. 전차 추출단계(S200)
전단계에서 생성된 정보로부터 전차를 보다 정확하게 추출하기 위해서, ROI 상에는 전차와 비전차의 두가지 정보만 존재하는 것으로 가정하였다. 이것은 ROI상의 이미지는 주변 환경에 해당하는 배경정보(Background)와 전차에 해당하는 물체정보(Foreground)로만 주로 구성되기 때문이다. 이에 본 단계에서는 ROI내의 배경으로부터 전차를 자동적으로 추출하기 위해 영상처리기법과 인공지능의 비지도학습(Unsupervised Learning) 알고리즘을 적용하였다.
전차의 위장은 전차로 하여금 주변 환경과 조화되게 하여 피탐지를 감소시킬 뿐만 아니라 영상정보에 기초한 전차식별에 어려움을 초래한다. 특히, 전차 외형의 복잡한 형상에 따른 명암의 차이와 위장으로 의한 다양한 형태의 색상은 디지털 영상처리간 전차의 정확한 외형추출에 어려움을 제공하였다. 이를 극복하기 위해, 2차원 중간값 필터(Median Filter)를 적용하였다. 이것은 비선형 디지털 필터 중의 하나로 적은 연산량으로 이미지의 이상치(Outlier)를 제거하는데 유용한 기법이다. 전차의 복잡한 형태에 따른 명암의 차이와 위장으로 인한 다양한 형태의 색상은 전차의 고유한 색상 즉 평균색상에 비춰볼 때 이상치로 판단되기 때문에, 중간값 필터를 적용할 경우 Figure 3(b)에 제시된 바와 같이, 전차의 복잡한 형상에 따른 명암과 다양한 형태의 위장 효과가 현저하게 감소되어 전차의 외형추출을 용이하게 하였다. 다음으로, 주변 배경으로부터 전차를 자동으로 구분하기 위하여 비지도학습의 k-평균 클러스터링 알고리즘(k-mean clustering)을 적용하였다. 이것은 주어진 임의의 데이터를 유사도(Similarity)에 기초하여 k개의 클러스터로 자동 분할(Segmentation)하는 기법으로, 식 (1)에 제시된 바와 같이 각 이미지의 픽셀 데이터
Figure 112019064729899-pat00001
의 within-cluster-scatter의 합이 최소화하는 k개의 클러스터를 산출하여 데이터를 분할하는 방법이다.
Figure 112019064729899-pat00002
(1)
여기서, 클러스터는
Figure 112019064729899-pat00003
, 오직 두 가지 집합만이 있는 경우로,
Figure 112019064729899-pat00004
로 적용되었으며,
Figure 112019064729899-pat00005
는 배경과 전차 각각의 중심점을 의미한다. 도3(c)에 제시된 바와 같이, k-평균 클러스터 알고리즘을 통해 전 단계에서 처리된 이미지는 배경을 0 (흑색), 전차를 1 (흰색)으로 이진화되었으며, 이 과정을 통해 이미지 ROI 내의 배경과 전차는 자동적으로 분할되었다.
3 단계. 전차 외형 식별단계(S300)
도3(c)에 제시된 바와 같이, 전단계 과정을 통해 생성된 이미지는 배경과 전차를 분할한 흑색과 흰색의 이진화 영상으로 표현된다. 그러나 여기에는 전차의 복잡한 외형형상 및 위장으로 인해 중간값 필터에 의해서 처리되지 못한 이상치 및 영상처리간 파생된 잡음에 의해 크고 작은 형태의 점과 구멍 등이 존재한다. 이를 제거하고 단순화된 전차형태의 이미지를 추출하기 위해 Morphological image processing의 침식(Erosion)과 팽창(Dilation)을 조합하여 적용하였다. 도3(d)에 제시된 바와 같이, 이 처리과정을 통해 노이즈가 제거되고 단순화된 전차의 이진화 결과를 확인할 수 있다. 도3(e)는 최초영상과 전단계의 결과를 중첩한 것으로 자동으로 분할된 전차를 분홍색으로 그 외는 녹색으로 표현하였다. 다음으로, 이진화된 결과를 기초로 전차의 외형을 식별하기 위해 소벨 윤곽선 검출방법(Sobel’s edge detection)을 적용하였다. 이것은 전단계에서 추출된 배경 및 전차의 이진화 영상을 기초로, 3
Figure 112019064729899-pat00006
3 이미지 픽셀의 중앙값이 주변 8개값과의 변화량을 검출하여 변화가 큰 픽셀 즉 전차와 배경이 접한 부분의 픽셀에 적색을 나타내도록 하여 전차의 외형을 식별한 것으로, 이것의 결과는 도3(f)에 제시되었다.
4단계. 전차 조준점 산출단계(S400)
도3(f)에 제시된 전차의 외형정보는 전차의 중앙부분을 지향하는 조준점을 계산하는데 사용되었다. 식 (2)에 묘사된 바와 같이, 식별된 전차외형 정보로부터 외형좌표
Figure 112019064729899-pat00007
과 임의의 조준좌표
Figure 112019064729899-pat00008
와의 거리상 평균제곱오차(MSE: Mean Square Error)의 합이 최소화하는 지점
Figure 112019064729899-pat00009
을 조준점으로 산출하였다. 또한, 이 지점은 전차로 식별된 외형의 상하좌우의 중앙부분을 의미하며, 이러한 전차의 외형정보를 통해 자동으로 산출된 조준점의 결과는 도3(g) 및 도3(h)에 제시되었다.
Figure 112019064729899-pat00010
(2)
전차 조준점 산출단계에서의 산출방법을 다르게 표현하면, 임의의 조준좌표를 기준으로 모든 외형좌표로의 변위벡터의 총합이 최소가 되는 조준좌표를 특정하는 것이라 할 수 있다. 이렇게 계산된 조준좌표가 표적이 되는 전차의 조준점이 될 수 있다.
본 발명의 다른 실시예인 전차 조준점 탐색시스템은 특징정합을 이용하여 전차표적의 특징을 추출하는 전차표적 특징추출부, k-평균 클러스터링 알고리즘을 이용하여 전차를 추출하는 전차 추출부, 소벨 윤곽선 검출방법을 이용하여 상기 전차의 외형을 식별하는 전차 외형 식별부, 상기 외형의 모든 좌표와 임의의 조준좌표와의 거리상 평균제곱오차의 합이 최소가 되게하는 상기 조준좌표를 산출하는 전차 조준점 산출부를 포함할 수 있다.
전차 조준점 탐색시스템의 각 구성의 구현 방법은 전술한 전차 조준점 탐색방법에서 기술한 구현 방법과 동일하다. 또한, 전차표적 특징추출부, 전차 추출부, 전차 외형 식별부 및 전차 조준점 산출부는 상기 전자 조준점 탐색방법에서 각 단계를 한정, 부가 및 구체화한 내용을 그대로 적용할 수 있다.
또한 조준점 탐색 시스템(1000)은 영상 생성장치(10), 메모리부(500) 및 제어부(600)를 더 포함할 수 있다. 영상 생성장치(10)는 카메라, 캠코더 등 영상을 촬영하고 저장하여 조준점 탐색 시스템(1000)으로 전달할 수 있는 어떠한 전자기기로도 구성될 수 있다. 메모리부(500)는 영상이 저장되거나, 전차표적 특징추출부(100), 전차 추출부(200), 전차 외형 식별부(300), 조준점 산출부(400)가 구현되기 위해 학습되는 데이터가 저장될 수 있다. 본 발명에서 쓰이는 인공지능 및 머신러닝의 구현을 위해 미리 학습되어야 하는 데이터를 메모리부(500)에 저장할 수 있다. 제어부(600)는 조준점 탐색 시스템(1000)에 인가되는 전압을 조절하고, 각 구성의 동작을 사용자의 필요에 맞게 조절할 수 있다.
이하에서는 한국 뿐 아니라, 선진국들이 운용하는 주력전차의 영상정보를 바탕으로 본 발명에 일 실시예에 따른 조준점 탐색 결과를 기술한다.
본 발명에서 제안하는 방법의 결과를 분석하기 위하여, 선진국들이 운용하는 주력전차 위주로 영상정보를 수집하였다. 수집된 영상정보는 주력전차의 주요특징이 식별되지 않는 일반적인 전차를 비롯한 독일의 Leopard 2, 영국의 Challenger 2, 러시아의 T-90 그리고 이스라엘의 Merkava 등 각각 2개의 데이터 세트, 총 10개 데이터 세트로 구분하였으며, 대부분 인터넷을 통해 수집되었다. 또한, 주변환경에 의한 전차탐지의 불확실성을 극복하기 위해서, 사막, 평야, 도로 등 다양한 환경에 위치한 전차정보를 수집하였으며, 전차 위장색에 대한 탐지 오차율을 낮추기 위하여, 같은 종류의 전차의 경우 위장색이 상이한 자료로 수집하였다. 그러나 각국의 주력전차에 대한 정보보호로 인하여 주력전차의 성능과 세부적인 외형정보를 제공하는 동영상 및 이미지는 수집에 제한되었다. 반면에 주력전차의 주요특징을 판단할 수 없도록 공개된 일반적인 전차에 대해서는 동영상 및 이미지 영상정보를 쉽게 수집할 수 있었다. 이에 주력전차의 경우 영상정보 위주로 연구가 수행된 반면에, 일반전차의 경우 동영상 및 영상정보를 모두 수행되었다.
본 발명에서 제안한 방법의 성능을 평가하기 위해서 평가척도인 정확도, 정밀도, 재현율 그리고 F-measure를 분석하였다. F-measure를 제외한 나머지 평가 척도는 자율수준의 성능을 평가하는데 일반적으로 사용되는 것으로, 전문가에 의해서 평가된 결과(실제값)와 제안된 방법의 결과(예측값)의 관계에 의해서 산출되며 모든 관계의 경우는 아래에 제시된 네 가지 항목에 의해 분석되었다.
TP(True-Positive): 실제값이 전차일 때, 예측값이 전차로 식별한 경우,
FP(False-Positive): 실제값이 전차가 아닐 때, 예측값이 전차로 식별한 경우,
FN(False-Negative): 실제값이 전차일 때, 예측값이 전차가 아닌 것으로 식별한 경우,
TN(True-Negative): 실제값이 전차가 아닐 때, 예측값이 전차가 아닌 것으로 식별한 경우이다.
수집된 데이터의 TP, FP, FN, 그리고 TN의 결과는 도5에 제시되었으며, 각 영상정보별 해상도의 차이가 존재하여 네 가지 항목은 전체 픽셀에서 해당 픽셀 수의 비율로 표현되었다. 또한, 위 네 가지 항목의 결과에 의거하여 정확도, 정밀도 그리고 재현율은 도6에 제시되었으며, 아래의 식 (3), (4), 그리고 (5)에 의해서 각각 산출되었다. 아울러, 정밀도와 재현율의 차이가 큰 결과들이 존재하여, 이 두 가지 결과를 종합한 척도인 F-measure를 추가적으로 적용하였으며, 이것의 산출식은 식 (6)에 제시되었다.
Figure 112019064729899-pat00011
(3)
Figure 112019064729899-pat00012
(4)
Figure 112019064729899-pat00013
(5)
Figure 112019064729899-pat00014
(6)
본 발명의 일 실시예에 따른 영상정보에 기초한 조준점 탐색방법은 인공지능과 머신러닝기법을 이용하여 전차탐지 및 조준점을 보다 정밀하게 탐색할 수 있는 효과가 있다. 또한 전투상황에서 적 전차가 등장하였을 경우 무인전투체계가 스스로 전차를 탐지하고 조준점을 산출하여, 기준의 방식보다 신속한 타격을 가능하게 한다. 또한 드론봇 전투체계에도 적용이 가능하여, 드론봇전투체계에 의한 직접타격을 가능케 하고, 간접타격에 필요한 조준점 좌표를 전송하여 간접타격을 유도할 수 있는 효과가 있다.
이상에서는 본 발명의 바람직한 실시예 및 응용예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예 및 응용예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.
S100 : 전차표적 특징추출단계
S200 : 전차 추출단계
S300 : 전차 외형 식별단계
S400 : 조준점 산출단계
100 : 전차표적 특징추출부
200 : 전차 추출부
300 : 전차 외형 식별부
400 : 조준점 산출부
500 : 메모리부
600 : 제어부

Claims (6)

  1. 영상정보에 기초한 전차 조준점 탐색방법에 있어서,
    전차표적 특징추출부가 특징정합을 통해 전차표적의 특징을 추출하는 전차표적 특징추출단계;
    전차 추출부가 k-평균 클러스터링 알고리즘을 통해 상기 전차를 추출하는 전차 추출단계;
    전차 외형 식별부가 소벨 윤곽선 검출방법을 이용하여 상기 전차의 외형을 식별하는 전차 외형 식별단계;
    전차 조준점 산출부가 상기 외형의 모든 좌표와 임의의 조준좌표와의 거리상 평균제곱오차의 합이 최소가 되게하는 상기 조준좌표를 산출하는 조준점 산출단계;
    를 포함하는 전차 조준점 탐색방법
  2. 제1항에 있어서,
    상기 특징정합은 MSER(Maximally Stable Extremal Regions) 기법을 통해 처리된 영상을 이용하는 전차 조준점 탐색방법
  3. 제1항에 있어서,
    상기 k-평균 클러스터링 알고리즘은 임의의 데이터를 유사도에 기초하여 k개의 클러스터로 자동 분할하는 기법인 전차 조준점 탐색방법
  4. 제1항에 있어서,
    상기 전차 추출단계는 중간값 필터(Median filter)가 적용된 이미지를 상기 k-평균 클러스터링 알고리즘에 의해 상기 전차를 추출하는 전차 조준점 탐색방법
  5. 제1항에 있어서,
    상기 전차 외형 식별단계는 모포로지컬 이미지 처리(Morphological image processing)를 통해 노이즈를 제거한 후 상기 소벨 윤곽선 검출방법을 적용하는 전차 조준점 탐색방법
  6. 영상정보에 기초한 전차의 조준점 탐색시스템에 있어서,
    특징정합을 이용하여 전차표적의 특징을 추출하는 전차표적 특징추출부;
    k-평균 클러스터링 알고리즘을 이용하여 전차를 추출하는 전차 추출부;
    소벨 윤곽선 검출방법을 이용하여 상기 전차의 외형을 식별하는 전차 외형 식별부;
    상기 외형의 모든 좌표와 임의의 조준좌표와의 거리상 평균제곱오차의 합이 최소가 되게 하는 상기 조준좌표를 산출하는 전차 조준점 산출부;
    를 포함하는 전차 조준점 탐색시스템
KR1020190075369A 2019-06-25 2019-06-25 영상정보에 기초한 자율 전차탐지 및 조준점 탐색방법 KR102130664B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190075369A KR102130664B1 (ko) 2019-06-25 2019-06-25 영상정보에 기초한 자율 전차탐지 및 조준점 탐색방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190075369A KR102130664B1 (ko) 2019-06-25 2019-06-25 영상정보에 기초한 자율 전차탐지 및 조준점 탐색방법

Publications (1)

Publication Number Publication Date
KR102130664B1 true KR102130664B1 (ko) 2020-07-06

Family

ID=71571241

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190075369A KR102130664B1 (ko) 2019-06-25 2019-06-25 영상정보에 기초한 자율 전차탐지 및 조준점 탐색방법

Country Status (1)

Country Link
KR (1) KR102130664B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102392874B1 (ko) 2021-10-05 2022-05-03 대한민국 인공지능 기반 정밀타격시스템
KR20220111348A (ko) * 2021-02-02 2022-08-09 대한민국(육군참모총장) 몬테칼로 시뮬레이션 기반의 최적 조준점 산출 방법, 시스템 및 컴퓨터 판독 가능한 기록매체

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170083788A (ko) * 2016-01-11 2017-07-19 대한민국(육군참모총장) 표적 훈련 시스템 및 이를 이용한 표적 훈련 분석 방법
KR20180072020A (ko) * 2016-12-20 2018-06-29 주식회사 수아랩 이미지 데이터의 보정 방법, 장치 및 컴퓨터-판독가능 저장 매체에 저장된 컴퓨터 프로그램

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170083788A (ko) * 2016-01-11 2017-07-19 대한민국(육군참모총장) 표적 훈련 시스템 및 이를 이용한 표적 훈련 분석 방법
KR20180072020A (ko) * 2016-12-20 2018-06-29 주식회사 수아랩 이미지 데이터의 보정 방법, 장치 및 컴퓨터-판독가능 저장 매체에 저장된 컴퓨터 프로그램

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220111348A (ko) * 2021-02-02 2022-08-09 대한민국(육군참모총장) 몬테칼로 시뮬레이션 기반의 최적 조준점 산출 방법, 시스템 및 컴퓨터 판독 가능한 기록매체
KR102496737B1 (ko) 2021-02-02 2023-02-07 대한민국 몬테칼로 시뮬레이션 기반의 최적 조준점 산출 방법, 시스템 및 컴퓨터 판독 가능한 기록매체
KR102392874B1 (ko) 2021-10-05 2022-05-03 대한민국 인공지능 기반 정밀타격시스템

Similar Documents

Publication Publication Date Title
Caraffi et al. Off-road path and obstacle detection using decision networks and stereo vision
Garcia-Pulido et al. Recognition of a landing platform for unmanned aerial vehicles by using computer vision-based techniques
US5883969A (en) Procedure and device for detecting the movement of a target and their applications
CN108108697B (zh) 一种实时无人机视频目标检测与跟踪方法
Holmes et al. Adaptive multispectral CFAR detection of land mines
KR102130664B1 (ko) 영상정보에 기초한 자율 전차탐지 및 조준점 탐색방법
Cane et al. Saliency-based detection for maritime object tracking
CN111886600A (zh) 一种用于图像的实例级别分割的设备和方法
Stone et al. Forward looking anomaly detection via fusion of infrared and color imagery
CN112150512B (zh) 融合背景差分法和聚类法的弹着点定位方法
Tiwari et al. A survey on shadow detection and removal in images and video sequences
Breckon et al. Multi-modal target detection for autonomous wide area search and surveillance
KR20150132968A (ko) 다중 목표 추적 시스템 및 방법
CN114037650A (zh) 变化检测及目标检测的地面目标可见光毁伤图像处理方法
Hoai et al. Anomaly color detection on uav images for search and rescue works
Kovács et al. Visual real-time detection, recognition and tracking of ground and airborne targets
CN107885231A (zh) 一种基于可见光图像识别的无人机捕获方法及系统
Yang et al. Method for building recognition from FLIR images
Teoh et al. A non-overlapping view human tracking algorithm using hsv colour space
Wu et al. A Review of Camouflaged Target Detection Research
Bajkowski et al. Comparing hand-crafted and learned key-point feature extraction for co-location of sequential low-altitude UAS video frames
Abbas et al. Improvements in accuracy of single camera terrain classification
Arulananth et al. Fake shadow detection using local histogram of oriented gradients (HOG) features
Chen et al. Deep Neural Networks Based Multiclass Animal Detection and Classification in Drone Imagery
Papic et al. Two-stage segmentation for detection of suspicious objects in aerial and longrange surveillance applications

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant