KR101944631B1 - 사수의 조준 오차를 보정하는 무유도 로켓 조준 장치 및 그 방법 - Google Patents

사수의 조준 오차를 보정하는 무유도 로켓 조준 장치 및 그 방법 Download PDF

Info

Publication number
KR101944631B1
KR101944631B1 KR1020170124298A KR20170124298A KR101944631B1 KR 101944631 B1 KR101944631 B1 KR 101944631B1 KR 1020170124298 A KR1020170124298 A KR 1020170124298A KR 20170124298 A KR20170124298 A KR 20170124298A KR 101944631 B1 KR101944631 B1 KR 101944631B1
Authority
KR
South Korea
Prior art keywords
target
aiming
error
shooter
angle
Prior art date
Application number
KR1020170124298A
Other languages
English (en)
Inventor
송진모
김태완
배종수
도주철
박태선
홍성열
Original Assignee
주식회사 한화
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 한화 filed Critical 주식회사 한화
Priority to KR1020170124298A priority Critical patent/KR101944631B1/ko
Application granted granted Critical
Publication of KR101944631B1 publication Critical patent/KR101944631B1/ko

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/16Sighting devices adapted for indirect laying of fire
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G11/00Details of sighting or aiming apparatus; Accessories
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/32Devices for testing or checking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

본 발명은 사수의 조준 오차를 보정하는 무유도 로켓 조준 장치 및 그 방법에 관한 것으로, 본 발명의 일실시예에 따른 사수의 조준 오차를 보정하는 무유도 로켓 조준 장치는, 사수의 표적 조준을 통해 이동 표적의 방향각을 획득하여 제공하기 위한 방향각 처리부; 영상 내에서 조준점을 중심으로 영상의 일부 영역을 표적 추적을 위한 데이터 처리 영역으로 제한하기 위한 영역 제한부; 상기 데이터 처리 영역 내에서 표적을 추적하여 표적의 위치를 파악하기 위한 표적 추적부; 및 상기 표적의 위치와 상기 영상의 조준점 간의 불일치로 인한 오차를 계산하여 서로 일치시킴으로써 방향각 오차를 보정하기 위한 방향각 오차 보정부;를 포함한다.

Description

사수의 조준 오차를 보정하는 무유도 로켓 조준 장치 및 그 방법{FREE ROCKET AIMING DEVICE AND METHOD FOR CALIBRATING AIMING ERROR OF SHOOTER}
본 발명은 사수의 조준 오차를 보정하는 무유도 로켓 조준 장치 및 그 방법에 관한 것으로, 보다 상세하게는 표적 추적 기법을 이용하여 사수의 조준 오차를 보정하는 무유도 로켓 조준 장치 및 그 방법에 관한 것이다.
일반적인 무유도 화기의 명중률은 사수의 조준 능력에 크게 의존한다. 그 이유는 조준 오차에 따른 표적과 발사체와의 방향각 오차가 발생하기 때문이다.
따라서 사수의 조준 능력을 향상 시킬 수 있는 장치를 이용하여 훈련 시간과 비용을 줄이면서 명중률을 높일 수 있는 방법이 필요하다.
대전차 무유도 로켓(anti-tank free rocket)들과 같은 화기들은 표적 거리 및 표적 이동 방향에 따른 예측 사격이 필요하여 사수가 조준장치를 이용하여 표적을 지향하여 사격함으로써 명중률을 향상시킬 수 있다.
여기서, 조준 장치는 거리측정기(LRF, Laser Range Finder), 자이로 센서(gyro sensor), 주/야간 카메라 등이 포함되는 표적 지향 장치를 말하고 표적의 이동 정보를 획득하고 사격제원을 산출하면, 예상 목표지점을 화면에 나타낼 수 있다.
하지만, 조준 장치는 표적의 이동 정보를 획득하기 위해 방향각과 거리를 측정하는 과정이 필요한데, 사수의 조준 오차로 인해 명중률이 떨어질 수 있다는 한계가 있다.
조준 장치는 사수가 표적을 지향하는 행위에 의해 발생되는 자세 변화를 측정하여 방향각 측정치를 얻고 표적과의 거리를 측정하여 표적의 위치와 속도를 추정한다.
이처럼, 조준 장치는 사수가 표적을 조준하는 행위를 통해 방향각 측정치를 획득한다. 즉, 조준 장치는 사수가 표적의 중심을 정확하게 조준하는 경우를 가정하여 방향각을 추정하게 된다.
그런데, 조준 장치는 사수가 표적을 잘못 조준하는 사수의 조준 오차(즉, 표적 지향 오차)가 발생하면, 도 1과 같이 방향각 오차가 발생하게 된다. 도 1은 사수의 조준 오차를 설명하는 도면이다.
사수는 표적의 중심을 정확하게 조준하는 경우 조준점과 표적의 중심을 일치시켜야 하지만, 실제로 사람이 조준하기 때문에 표적의 중심을 정확하게 조준하기 쉽지 않다. 결국, 도 1과 같은 사수의 조준 오차는 방향각 오차를 유발하여 표적에 대한 명중률을 떨어트린다.
특히, 조준 장치는 사수/환경에 따라 사수의 조준 오차의 크기가 다르기 때문에 사수의 조준 오차에 따른 방향각 오차를 분석하여 오차를 보정한다는 것이 쉽지 않다.
따라서, 조준 장치는 표적의 명중률을 향상시키기 위해 사수의 조준 오차로 인해 발생하는 방향각 오차를 보정하고, 표적 추적이 곤란한 환경에서도 표적 추적의 지속성과 실시간성을 만족시키는 학습 기반 표적 추적 방안이 적용될 필요가 있다.
대한민국 공개특허공보 제10-2014-0087832호 대한민국 등록특허공보 제10-1364047호 (2014.02.11 등록)
본 발명의 목적은 사수의 표적 조준을 통해 이동 표적의 방향각을 측정함에 있어서, 표적 추적 기법을 이용하여 영상 내에서 표적의 위치와 조준점 간의 오차를 확인하여 일치시키는 방향각 오차를 보정함으로써, 표적에 대한 명중률을 향상시키기 위한, 사수의 조준 오차를 보정하는 무유도 로켓 조준 장치 및 그 방법을 제공하는데 있다.
본 발명의 일실시예에 따른 사수의 조준 오차를 보정하는 무유도 로켓 조준 장치는, 사수의 표적 조준을 통해 이동 표적의 방향각을 획득하여 제공하기 위한 방향각 처리부; 영상 내에서 조준점을 중심으로 영상의 일부 영역을 표적 추적을 위한 데이터 처리 영역으로 제한하기 위한 영역 제한부; 상기 데이터 처리 영역 내에서 표적을 추적하여 표적의 위치를 파악하기 위한 표적 추적부; 및 상기 표적의 위치와 상기 영상의 조준점 간의 불일치로 인한 오차를 계산하여 서로 일치시킴으로써 방향각 오차를 보정하기 위한 방향각 오차 보정부;를 포함하되, 사수가 이동 표적을 조준함에 따라 자세 센서를 이용하여 제1 방향각을 측정하기 위한 제1 방향각 측정부; 및 사수가 이동 표적을 조준함에 따라 영상 센서를 이용하여 제2 방향각을 측정하기 위한 제2 방향각 측정부;를 더 포함하고, 상기 방향각 처리부는, 상기 제1 방향각 및 상기 제2 방향각을 융합 처리하여 바이어스 오차가 보정된 상기 방향각을 획득하며, 상기 방향각 처리부는, 상기 제1 방향각을 누적시키고, 상기 제2 방향각이 입력되는 경우에 현재 측정된 상기 제1 방향각을 상기 제2 방향각으로 갱신하여 상기 제1 방향각의 바이어스 오차를 보정할 수 있다.
삭제
삭제
상기 제1 방향각 측정부는, 사수가 이동 표적을 지향하는 행위로 발생하는 자세 변화를 측정하여 제1 방향각을 측정할 수 있다.
상기 제2 방향각 측정부는, 영상 내에서 표적이 위치하는 중심부분을 제외한 배경부분의 픽셀 이동량을 계산하여 핀홀 카메라 모델과 카메라 스펙(시야각, 크기)을 이용하여 제2 방향각을 측정할 수 있다.
상기 영역 제한부는, 상기 데이터 처리 영역을 표적의 위치를 파악하기 위한 여유 영역인 추적 영역으로 설정하고, 추적 영역 내에 표적의 움직임을 따라 이동 가능한 표적 템플릿을 설정할 수 있다.
상기 영역 제한부는, 상기 표적 템플릿의 크기를 표적과의 상대거리를 이용하여 표적의 크기에 따라 설정할 수 있다.
상기 표적 추적부는, 칼만 필터 기반의 상관 추적기(KF based matching tracker)를 사용하는 추적 학습 검출(Tracking Learning Detection, TLD) 기반으로 표적을 추적할 수 있다.
상기 방향각 오차 보정부는, 상기 표적의 위치와 상기 영상의 조준점에 대해 픽셀 단위를 각도 단위로 변환하여 요(yaw) 방향과 피치(pitch) 방향에 대한 조준점과 표적의 중점을 일치시킬 수 있다.
한편, 본 발명의 일실시예에 따른 사수의 조준 오차를 보정하는 무유도 로켓 조준 방법은, 사수의 표적 조준을 통해 이동 표적의 방향각을 획득하여 제공하는 단계; 영상 내에서 조준점을 중심으로 영상의 일부 영역을 표적 추적을 위한 데이터 처리 영역으로 제한하는 단계; 상기 데이터 처리 영역 내에서 표적을 추적하여 표적의 위치를 파악하는 단계; 및 상기 표적의 위치와 상기 영상의 조준점 간의 오차를 계산하여 서로 일치시키는 단계;를 포함하되, 사수가 이동 표적을 조준함에 따라 자세 센서를 이용하여 제1 방향각을 측정하는 단계; 및 사수가 이동 표적을 조준함에 따라 영상 센서를 이용하여 제2 방향각을 측정하는 단계;를 더 포함하고, 상기 제공 단계는, 상기 제1 방향각 및 상기 제2 방향각을 융합 처리하여 바이어스 오차가 보정된 상기 방향각을 획득하며, 상기 제공 단계는, 상기 제1 방향각을 누적시키고, 상기 제2 방향각이 입력되는 경우에 현재 측정된 상기 제1 방향각을 상기 제2 방향각으로 갱신하여 상기 제1 방향각의 바이어스 오차를 보정할 수 있다.
삭제
삭제
상기 제한 단계는, 상기 데이터 처리 영역을 표적의 위치를 파악하기 위한 여유 영역인 추적 영역으로 설정하고, 추적 영역 내에 표적의 움직임을 따라 이동 가능한 표적 템플릿을 설정할 수 있다.
상기 파악 단계는, 칼만 필터 기반의 상관 추적기(KF based matching tracker)를 사용하는 추적 학습 검출(Tracking Learning Detection, TLD) 기반으로 표적을 추적할 수 있다.
상기 보정 단계는, 상기 표적의 위치와 상기 영상의 조준점에 대해 픽셀 단위를 각도 단위로 변환하여 요(yaw) 방향과 피치(pitch) 방향에 대한 조준점과 표적의 중점을 일치시킬 수 있다.
본 발명은 사수의 표적 조준을 통해 이동 표적의 방향각을 측정함에 있어서, 표적 추적 기법을 이용하여 영상 내에서 표적의 위치와 조준점 간의 오차를 확인하여 일치시키는 방향각 오차를 보정함으로써, 표적에 대한 명중률을 향상시킬 수 있다.
또한, 본 발명은 사수가 표적을 오조준하는 경우에 획득한 표적 정보(즉, 방향각)의 오차가 커질 때, 표적 추적 기법을 이용하여 영상 내에서 표적의 위치를 파악하여 방향각 오차를 제거할 수 있다.
또한, 본 발명은 사수의 특성과는 관계없이 오차를 보정할 수 있을 뿐만 아니라, 학습 기반의 표적 추적 기법을 이용하여 표적 추적 정밀도와 강인성을 제공할 수 있다.
도 1은 사수의 조준 오차를 설명하는 도면,
도 2는 본 발명의 일실시예에 따른 사수의 조준 오차를 보정하는 무유도 로켓 조준 장치에 대한 도면,
도 3은 표적의 거리와 방향각을 이용한 표적의 위치 및 속도 추정을 설명하는 도면,
도 4는 상기 도 2의 제2 방향각 측정부를 세부 구성을 나타낸 도면,
도 5는 데이터 영역 제한을 설명하는 도면,
도 6은 데이터 영역 제한을 설정한 영상을 나타낸 도면,
도 7은 소형 표적에 최적화된 추적 학습 검출(TLD) 기반 표적 추적을 설명하는 도면,
도 8은 표적 추적을 통해 사수의 조준 오차에 대한 보정을 설명하는 도면,
도 9는 등속 표적을 조준하여 추정한 속도를 비교한 도면,
도 10은 표적 추적을 적용한 경우와 적용하지 않은 경우의 주/야간 거리와 조준 능력에 따른 속도 오차의 평균값과 표준편차를 나타낸 도면,
도 11은 상기 도 10을 백분율로 나타낸 도면,
도 12는 본 발명의 일실시예에 따른 사수의 조준 오차를 보정하는 무유도 화기 조준 방법에 대한 도면이다.
이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다.
이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위한 용어로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.
따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.
첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 본 발명은 첨부한 도면에 그려진 상대적인 크기나 간격에 의해 제한되어지지 않는다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명한다.
도 2는 본 발명의 일실시예에 따른 사수의 조준 오차를 보정하는 무유도 로켓 조준 장치에 대한 도면이다.
도 2에 도시된 바와 같이, 본 발명의 일실시예에 따른 사수의 조준 오차를 보정하는 무유도 로켓 조준 장치(이하 "무유도 로켓 조준 장치"라 함, 100)는, 무유도 화기로 이동 표적을 조준하여 사격하는 경우에 영상 기반 표적 추적 기법을 통해 표적 이동 정보를 확인하고, 표적 추적의 지속성과 실시간성을 만족시키는 학습 기반 표적 추적 기법을 통해 영상 내 표적의 위치를 파악하여 사수의 조준 오차로 발생하는 방향각 오차를 보정함으로써 사수의 조준 오차로 인해 명중률이 떨어지는 것을 방지할 수 있다.
이러한 무유도 로켓 조준 장치(100)는 이동 표적 정보를 획득하는 방법으로, 사수가 표적을 조준하는 행위를 통해 방향각을 측정하는 방법이 있다. 이 경우에는 사수가 표적의 중심을 정확하게 조준하는 경우를 가정하여 방향각을 측정하게 되는데, 방향각을 측정하는 방법으로 자세 센서(자이로 센서)와 영상 센서를 이용할 수 있다.
하지만, 무유도 로켓 조준 장치(100)는 방향각 측정을 위한 센서의 성능과 별개로 사수의 조준 오차가 발생하는 경우에 방향각 오차가 발생하여 명중률이 떨어진다.
이에 따라, 무유도 로켓 조준 장치(100)는 학습 기반 표적 추적 기법을 통해 영상 내의 표적의 위치를 파악하여 사수의 조준 오차를 보정할 수 있기 때문에 사수의 특성과 상관없이 방향각 오차를 보정할 수 있다.
이를 위해, 무유도 로켓 조준 장치(100)는 제1 방향각 측정부(110), 제2 방향각 측정부(120), 방향각 처리부(130), 영역 제한부(140), 표적 추적부(150), 방향각 오차 보정부(160)를 포함한다.
먼저, 제1 방향각 측정부(110), 제2 방향각 측정부(120), 방향각 처리부(130)은 사수가 표적을 조준하는 행위를 통해 이동 표적 정보로서 이동 표적의 방향각을 측정한다.
여기서는 설명의 편의상 제1 방향각 측정부(110)를 통해 측정되는 방향각을 이하 '제1 방향각'이라 하고, 제2 방향각 측정부(120)를 통해 측정되는 방향각을 이하 '제2 방향각'이라 하고, 방향각 처리부(130)를 통해 출력되는 방향각을 이하 '보정 방향각'으로 구분하여 설명하기로 한다.
제1 방향각 측정부(110)는 사수가 이동 표적을 조준함에 따라 자세 센서를 이용하여 제1 방향각을 측정한다. 즉, 제1 방향각 측정부(110)는 사수가 이동 표적을 지향하는 행위로 발생하는 자세 변화를 측정하여 제1 방향각을 측정한다.
도 3을 참조하면, 이동 표적은 제1 지점(Pk-1)에서 제2 지점(Pk)으로 이동할 때, 사수가 위치하는 원점으로부터 제1 지점(Pk-1)의 위치정보(rk-1, θk-1)와 제2 지점(Pk)의 위치정보(rk, θk)를 측정하여 속도(Vk)를 추정 가능하다. 마찬가지로, 제1 방향각 측정부(110)는 제1 지점(Pk-1)의 위치정보(rk-1, θk-1)와 제2 지점(Pk)의 위치정보(rk, θk)를 측정하여 제1 방향각(θ)을 추정 가능하다. 여기서, 자세 센서의 오차가 없는 이상적인 환경에서는 이전 시간의 측정 벡터와 이동 벡터의 합은 다음 시간의 측정 벡터와 같다. 도 3은 표적의 거리와 방향각을 이용한 표적의 위치 및 속도 추정을 설명하는 도면이다.
그런데, 각속도를 측정하는 자세 센서는 필연적으로 바이어스(bias) 오차가 발생한다. 이로써, 각속도를 측정하는 자세 센서는 자세 센서의 정밀도가 요구조건에 충분하지 않은 경우에 표적 이동 정보의 추정 오차가 커지게 되고, 획득 주기가 매우 낮은 경우에 표적 이동 정보의 변화량이 커져 예측하는 것이 쉽지 않다.
제2 방향각 측정부(120)는 사수가 이동 표적을 조준함에 따라 영상 센서를 이용하여 제2 방향각을 측정한다. 즉, 제2 방향각 측정부(120)는 영상 내에서 표적이 위치하는 중심부분을 제외한 배경부분의 픽셀 이동량을 계산해 핀홀 카메라 모델과 카메라 스펙(시야각, 크기)을 이용하여 제2 방향각을 측정할 수 있다. 여기서, 영상 내에서 표적이 위치하는 중앙부분을 제외한 배경부분을 이용하는 것은 사수가 이동 표적을 조준할 때 영상 내에서 표적이 움직이지 않고 배경만 움직이는 것처럼 보이기 때문이다.
도 4를 참조하면, 제2 방향각 측정부(120)는 영상 조정부(121), 특징점 추출부(122), 특징점 탐색부(123), 대표 각도 추정부(124)를 포함한다. 도 4는 상기 도 2의 제2 방향각 측정부를 세부 구성을 나타낸 도면이다.
영상 조정부(121)는 피라미드 이미지 처리를 통해 본래 영상의 사이즈를 축소시키고, 축소된 영상의 중심부분을 크로핑(cropping)한다. 여기서, 본래 영상의 사이즈는 예를 들어, 640×480 사이즈라면, 축소된 영상의 사이즈는 290×210 사이즈이다. 이는 표적이 사수의 조준에 의해 영상의 중심에 있다고 가정하기 때문에 표적 특징점을 제외하고 배경 특징점만을 이용하여 배경의 이동을 계산하기 위함이다.
특징점 추출부(122)는 축소된 영상에서 해리스 코너 검출Harris Corner Detection) 기법을 이용하여 특징점을 추출한다.
특징점 탐색부(123)는 광류(optical flow) 기법을 이용해 화소 단위의 움직임 변위를 예측한다. 여기서, 광류 기법은 주로 화소 단위의 움직임 변위를 예측하며, 최적 해를 구하기 위해서 수식 연산을 반복하기 때문에 아주 작은 움직임까지 정확하게 예측 가능하다.
대표 각도 추정부(124)는 특징점의 움직임 변위들을 하나의 대표 성분으로 나타낸다. 이는 회전 각속도를 추정하기 위해 특징점의 움직임 변위들을 하나의 대표 성분으로 나타낼 필요가 있기 때문이다.
대표 각도 추정부(124)는 특징점의 움직임 변위들 중에서 잡음 성분에 의한 거짓(outlier) 변위가 존재하므로, 가장 많은 수의 데이터들로부터 지지를 받는 모델을 선택하는 RANSAC(Random Sample Consensus) 기술을 이용하여 거짓 변위를 분류한다.
대표 각도 추정부(124)는 하나의 대표 성분으로 나타낸 특징점의 움직임 변위로부터 대표 각도를 얻기 위해 카메라의 시야각(Field of View)를 고려해야 한다. 즉, 대표 각도 추정부(124)는 아래 수학식 1을 통해 픽셀 좌표계에서 각도 좌표계로 변환하여 대표 각도를 추정할 수 있다.
Figure 112017094045688-pat00001
여기서, 움직임 변위는 Δx 픽셀(pixel)이고, 시야각은 F°이며, 영상 크기는 V 픽셀이다. 그런데, 대표 각도 추정부(124)는 조준 장치의 롤(roll) 각에 의해 영상 좌표계와 월드 좌표계 간의 각도 불일치가 발생하므로, 정확한 대표 각도 추정을 위해 핀홀 카메라 모델의 영상 회전 변환을 통해 롤각 보정을 진행한다.
방향각 처리부(130)는 제1 방향각 측정부(110)에 의해 측정된 제1 방향각과 제2 방향각 측정부(120)에 의해 측정된 제2 방향각을 융합 처리하여 바이어스 오차가 보정된 방향각을 획득한다.
제1 방향각 측정부(110)와 제2 방향각 측정부(120)는 다음과 같은 특성 차이가 있기 때문에, 방향각 처리부(130)는 제1 방향각 측정부(110)에 의해 측정된 제1 방향각과 제2 방향각 측정부(120)에 의해 측정된 제2 방향각에 대한 융합 처리를 통해 더 좋은 성능을 낼 수 있다.
즉, 제1 방향각 측정부(110)는 시간이 지날수록 오차가 누적되는 바이어스 오차를 갖지만, 배경부분의 특징점에 의한 오차가 발생하지 않고 일정한 속도로 회전각속도를 출력 가능하다. 반면에, 제2 방향각 측정부(120)는 바이어스 오차가 없고 출력 오차가 적지만, 큰 움직임이 발생하거나 배경부분의 특징점이 없는 경우에 회전각속도 추정이 되지 않아 큰 오차를 발생시키고, 비동기로 동작한다.
방향각 처리부(130)는 제1 방향각 측정부(110)에 의해 측정된 제1 방향각을 누적시키고, 제2 방향각 측정부(120)에 의해 측정된 제2 방향각이 입력되는 경우에 현재 측정된 제1 방향각을 제2 방향각으로 갱신하여 제1 방향각의 바이어스 오차를 보정할 수 있다. 이때, 방향각 처리부(130)는 출력주기를 30㎐로 유지한다.
한편, 방향각 처리부(130)는 코너 개수가 임계값 미만이거나, 프레임당 픽셀 이동량이 임계값 이상이면, 제1 방향각 측정부(110)에 의해 측정된 제1 방향각을 이용하여 오차가 발생하는 것을 방지한다.
다음으로, 영역 제한부(140), 표적 추적부(150), 방향각 오차 보정부(160)는 영상 내에서 표적의 위치를 파악하고, 조준점과 표적의 위치 간 오차를 계산하여 조준점과 표적의 위치를 일치시키는 사수의 조준 오차를 보정한다.
영역 제한부(140)는 표적 추적 기법의 효율적인 데이터 처리를 위해 사수가 이동 표적을 조준하는 특성을 이용하여 데이터 처리 영역을 제한한다.
여기서, 사수가 이동 표적을 조준하는 특성은 다음과 같다. 1) 사수는 영상 중심의 조준점(+)에 표적이 위치하도록 추적한다. 2) 표적과의 거리 측정이 가능하다. 3) 표적은 탱크와 같은 대전차로서 급격한 움직임이 없다.
이를 통해, 표적 추적 기법은 다음과 같이 적용할 수 있다. 1) 영상 전체에서 표적 추적을 실시하지 않고, 영상의 중심부분에서 표적 추적을 실시한다. 2) 검출 영역의 크기는 상대거리를 이용하여 표적의 크기에 맞춘다 3) 표적의 움직임이 빠르지 않기 때문에 데이터 처리 영역을 제한할 수 있다.
이처럼, 사수는 이동 표적을 영상 내에서 중심부분에 두고 조준하기 때문에, 표적 추적 기법을 적용하는 경우에는 전체 영역에서 표적을 추적할 필요가 없다.
도 5를 참조하면, 영상 내에서 표적 템플릿의 픽셀 크기(TP)는 아래 수학식 2와 같다. 도 5는 데이터 영역 제한을 설명하는 도면이다.
Figure 112017094045688-pat00002
여기서, D는 LRF를 통해 측정되는 표적과의 거리를 나타내고, P는 추적영역의 픽셀 크기를 나타내며, FOV는 카메라의 화각으로, 2θ이다. TL은 표적 템플릿에 해당하는 실제 크기에 해당하며, 2L은 추적영역에 해당하는 실제 크기에 해당한다.
이처럼, 영역 제한부(140)는 표적과의 거리와 표적의 최대 속도에 따라 데이터 처리 영역으로 추적 영역을 설정하는데, 사수의 조준 오차를 고려하여 표적 추적 기법을 통해 표적의 위치를 파악하기 위한 여유영역에 해당된다. 그리고, 영역 제한부(140)는 영상 내에서 표적의 움직임을 따라 이동 가능하여 표적의 움직임을 추적하는 표적 템플릿을 설정한다. 즉, 영역 제한부(140)는 추적 초기에 표적의 크기를 지정하지 않고 상대거리를 이용하여 조준하여 표적의 크기에 맞게 표적 템플릿(검출 패치)의 크기가 설정된다.
도 6을 참고하면, 표적 템플릿은 표적의 거리 Dm에서 최대 크기가 TP(a×b)로 설정하고, 추적영역은 표적의 속도와 사수의 오차를 고려하면 최대 크기가 P(A×B)로 설정한다. 도 6은 데이터 영역 제한을 설정한 영상을 나타낸 도면이다.
이처럼 영역 제한부(140)는 표적과의 거리와 최대 속도에 따라 데이터 처리 영역을 적절하게 제한할 수 있기 때문에, 데이터 처리를 효율적으로 수행할 수 있다. 또한, 영역 제한부(140)는 표적 템플릿을 통해 표적을 자동으로 검출한다.
표적 추적부(150)는 영역 제한부(140)에 의해 설정된 데이터 처리 영역 내에서 표적을 추적하여 영상 내에서 표적의 위치를 파악한다. 여기서, 표적 추적은 야간에도 운용이 가능하므로 적외선 영상을 사용하며, 300m 이상의 원거리 표적을 추적하므로 표적의 크기가 작고, 휴대용 조준 장치에 구현될 수 있어 하드웨어 리소스와 배터리 용량의 제약이 있다는 특성이 있다.
따라서, 표적 추적부(150)는 적외선 소형 표적에 최적화된 추적 학습 검출(Tracking Learning Detection, TLD) 기반으로 표적 추적을 수행하여 주/야간 원거리 영상 내에서 표적의 위치를 파악한다.
이러한 표적 추적부(150)는 표적을 추적하면서 학습하여 표적 검출이 가능하므로, 일시적으로 표적을 놓친 경우라도 재검출을 통해 지속적인 표적 추적이 가능하다.
도 7을 참조하면, 표적 추적부(150)는 특징이 적은 표적의 추적 성능이 떨어지는 내부 추적기로서 특징 매칭 기반 추적기(Median Flow tracker) 대신에 칼만 필터 기반의 상관 추적기(KF based matching tracker)(151)를 사용한다. 도 7은 소형 표적에 최적화된 추적 학습 검출(TLD) 기반 표적 추적을 설명하는 도면이다.
이러한 칼만 필터 기반의 상관 추적기(151)는 칼만 필터와 템플릿 매칭을 이용한 추적 기법이 적용된 내부 추적기로서, 표적의 형태적 유사도가 가장 큰 값을 갖는 위치를 표적의 측정값으로 사용하여 칼만 필터를 적용해 표적의 위치와 유효측정영역을 추정한다.
칼만 필터 기반의 상관 추적기(151)는 형태적 유사도를 판별하므로 영상 내에서 특징점이 없어도 표적 추적이 가능하며, 다음 프레임에 대상 표적이 있을 위치를 예측하여 더욱 빠른 속도로 처리할 수 있다.
하지만, 칼만 필터 기반의 상관 추적기(151)는 메모리 사용량과 연산량이 많아 실시간 동작이 어려울 수 있지만, 전체 영상에 대한 표적 추적을 수행하는 것이 아니라, 영역 제한부(140)에 의해 설정된 데이터 처리 영역에 대한 표적 추적을 수행하므로 앞서 언급한 단점을 극복할 수 있다. 이처럼, 칼만 필터 기반의 상관 추적기(151)는 무유도 로켓 조준 장치(100)의 특성을 고려하여 데이터 처리 영역을 설정함으로써 표적 추적부(150)에 적용될 수 있다.
한편, 칼만 필터 기반의 상관 추적기(151)는 추적위치를 패치(영역) 형태로 제공하므로, 추적 패치와 템플릿의 크기는 이전 영역에서 구한 검출 패치 크기와 동일하게 설정한다.
또한, 칼만 필터 기반의 상관 추적기(151)는 표적(검출 패치)의 크기에 따라 템플릿 크기를 변형해 표적의 크기와 상관없이 표적이 추적되도록 한다.
방향각 오차 보정부(160)는 영상 내에서 표적 추적부(150)에 의해 표적의 위치가 파악되면, 표적의 위치와 조준점 간의 픽셀 단위의 오차를 계산하여 방향각 오차를 보정한다. 여기서, 방향각 오차는 사수의 조준 오차에 의해 표적의 위치와 조준점이 일치하지 않는 상태를 나타낸다.
도 8을 참조하면, 영상 내에서 표적의 위치 (Tx,Ty)와 조준점 (Cx,Cy)은 상호 위치가 일치하지 않는 방향각 오차가 나타난 것을 알 수 있다. 도 8은 표적 추적을 통해 사수의 조준 오차에 대한 보정을 설명하는 도면이다.
이때, 방향각 오차 보정부(160)는 아래 수학식 3을 이용하여 방향각 오차를 보정한다. 영상은 요(yaw) 축 방향과 피치(pitch) 축 방향에서 나타난다.
Figure 112017094045688-pat00003
여기서, ωx와 ωy는 픽셀/각도 변환 계수로서, 픽셀 단위를 각도 단위로 변환하는 계수를 의미한다. ωx와 ωy는 핀홀 카메라 모델에서 카메라 시야각(FOV)을 영상 화소의 크기로 나눈 값으로 사용된다. Cx와 Cy는 영상의 조준점 위치로서, 요(yaw) 방향과 피치(pitch) 방향에 대한 영상 중심 좌표이다. Tx와 Ty는 표적 추적부(150)에 의해 파악된 표적의 중심 위치로서, 요(yaw) 방향과 피치(pitch) 방향에 대한 표적 중심 좌표이다.
이 경우, 방위각 오차 보정부(160)는 영상 중심 좌표(Cx, Cy)를 표적 중심 좌표(Tx, Ty)로 이동시켜 방향각 오차를 보정한다.
이와 같이 사수의 조준 오차를 보정하기 위해서는 매우 높은 표적 추적 성능이 요구된다. 이는 잘못된 표적 정보를 이용하여 방향각을 보정하는 경우 더 큰 방향각 오차를 야기하기 때문이다. 전술한 바와 같이, 표적 추적부(150)는 표적 추적의 정밀성과 강인성을 위해 적외선 소형 표적에 최적화된 추적 학습 검출(TLD) 기반으로 표적 추적을 수행하는 것이 바람직하다.
도 9는 등속 표적을 조준하여 추정한 속도를 비교한 도면이다.
주/야간 환경, 조준거리, 사수 조준 능력에 따른 조준 오차 제거 효과를 분석하기 위해서 야외 시험을 수행하여 시험 영상을 확보하였고, 확보한 영상을 이용하여 표적 추적을 적용한 경우와 적용하지 않은 경우의 추정 결과를 비교하였다.
비교를 위한 기준값의 측정을 위해서 표적 차량에 GPS를 적용하여 실시간으로 표적의 속도 정보를 획득하고 아래 수학식 4 및 5를 이용하여 오차를 측정하였다.
Figure 112017094045688-pat00004
Figure 112017094045688-pat00005
여기서, G는 GPS로 측정한 속도를 의미하며, P는 영상 기반 이동표적 정보 추정을 통해 추정된 속도를 의미한다.
도 9에 도시된 바와 같이, 사수 조준 오차로 인하여 속도의 편차가 발생됨을 확인할 수 있다. 여기서, 표적 추적 기법을 적용하는 경우에는 사수의 표적 지향 오차로 발생한 속도 추정 오차가 줄어드는 것을 확인할 수 있다.
도 10은 표적 추적을 적용한 경우와 적용하지 않은 경우의 주/야간 거리와 조준 능력에 따른 속도 오차의 평균값과 표준편차를 나타낸 도면이고, 도 11은 상기 도 10을 백분율로 나타낸 도면이다.
A사수는 조준 경험자로써 숙련 사수를 나타내고, C사수는 조준 경험이 없거나 미비한 사수를 나타낸다.
도 10을 참조하면, 표적 추적을 적용한 경우에는 야간 환경과 C 사수의 경우에도 속도 오차 개선 효과가 뛰어남을 확인할 수 있다.
즉, 야간 환경에서는 표적이 주변 배경과 확연히 구분되어 아래 수학식 6 및 7과 같이 표현되는 표적 추적 성공률이 약 93%로 높고, C 사수의 경우에는 사수의 조준 오차가 크게 발생하므로 표적 추적으로 인한 속도 오차의 감소폭이 크다.
Figure 112017094045688-pat00006
Figure 112017094045688-pat00007
반대로, 주간 환경에서는 표적이 주변 사물에 가려지는 경우에 표적과 배경이 잘 구별되지 않아 표적을 놓치는 경우가 빈번하게 발생할 수 있고, 오히려 속도 추정 오차가 커질 수 있다.
결론적으로, 표적 추적 성능을 만족하는 환경에서는 속도 오차가 0.2m/s 이상 감소하여 사수의 조준 오차가 제거됨을 확인할 수 있다.
이처럼, 표적 추적 기법으로 사수의 조준 오차를 제거하기 위해서는 적외선 소형 표적의 중심추적이 가능해야 하고, 클러터를 구별해야 하며, 표적 가림에 강인해야 한다.
이에 따라, 표적의 중심 추적 성능은 아래 표 1과 같은 환경과 조건에서 취득한 영상을 활용하였다.
환경 조건
추적환경 장애물/클러터 존재 유
센서 적외선 영상
탐지대상 SUV 차량
시간 주간/야간
표적의 중심 추적 성능은 RMSE(Root Mean Square Error)를 이용하여 측정하였으며 표적의 참값은 영상 내에서 수기로 찾고 표적 추적 결과값을 이용해 3가지 추적 기법에 대한 RMSE를 구하였다.
표적과 클러터의 구별, 표적 가리 검증은 민감도(sensitivity)와 특이도(specificity) 분석을 통해 수행한다.
아래 표 2는 다양한 영상에 적용한 표적 추적 기법의 시뮬레이션 결과를 종합한 결과를 나타낸다.
구분 TLD 본 발명
TPR 0.9833 0.9306
TNR 0.1573 0.9937
RMSE 15.6059 2.0641
처리속도 15fps 120fps
표 2와 같이, 적외선 소형 표적을 추적하는 경우에는 본 발명의 표적 분류 능력, 중심 추적 성능, 처리 속도가 우수함을 알 수 있다.
도 12는 본 발명의 일실시예에 따른 사수의 조준 오차를 보정하는 무유도 화기 조준 방법에 대한 도면이다.
도 12를 참조하면, 무유도 로켓 조준 장치(100)는 사수에 의해 이동 표적이 조준되면(S201), 자세 센서 및 영상 센서를 이용하여 제1 및 제2 방향각을 측정한다(S202). 이때, 무유도 로켓 조준 장치(100)는 사수가 이동 표적을 지향하는 행위로 발생하는 자세 변화를 측정하여 제1 방향각을 측정하고, 영상 내에서 표적이 위치하는 중심부분을 제외한 배경부분의 픽셀 이동량을 계산해 핀홀 카메라 모델과 카메라 스펙(시야각, 크기)을 이용하여 제2 방향각을 측정할 수 있다.
이후, 무유도 로켓 조준 장치(100)는 제1 및 제2 방향각에 대해 융합 처리를 통해 바이어스 오차가 보정된 방향각을 획득한다(S203). 이때, 무유도 로켓 조준 장치(100)는 제1 방향각을 누적시키고, 제2 방향각이 입력되는 경우에 현재 측정된 제1 방향각을 제2 방향각으로 갱신하여 제1 방향각의 바이어스 오차를 보정할 수 있다.
그런 다음, 무유도 로켓 조준 장치(100)는 표적 추적을 통해 방향각 오차 보정을 위해 다음 과정을 수행한다.
즉, 무유도 로켓 조준 장치(100)는 표적 추적 기법의 효율적인 데이터 처리를 위해 사수가 이동 표적을 조준하는 특성을 이용하여 데이터 처리 영역을 제한한다(S204). 이때, 무유도 로켓 조준 장치(100)는 영상 전체에서 표적 추적을 실시하지 않고, 영상의 중심부분에서 표적 추적을 실시할 수 있도록 데이터 처리 영역으로 표적 템플릿과 추적영역을 설정한다.
이후, 무유도 로켓 조준 장치(100)는 데이터 처리 영역 내에서 표적 추적 및 표적의 위치를 파악한다(S205). 이때, 무유도 로켓 조준 장치(100)는 적외선 소형 표적에 최적화된 추적 학습 검출(TLD) 기반으로 표적 추적을 수행하여 주/야간 원거리 영상 내에서 표적의 위치를 파악한다. 여기서, 무유도 로켓 조준 장치(100)는 특징 매칭 기반 추적기 대신에 칼만 필터 기반의 상관 추적기를 사용한다.
이후, 무유도 로켓 조준 장치(100)는 영상 내에서 표적의 위치가 파악되면, 표적의 위치와 조준점 간의 불일치로 인한 픽셀 단위의 오차를 계산하여 방향각 오차를 보정한다(S206).
일부 실시 예에 의한 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CDROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
비록 상기 설명이 다양한 실시예들에 적용되는 본 발명의 신규한 특징들에 초점을 맞추어 설명되었지만, 본 기술 분야에 숙달된 기술을 가진 사람은 본 발명의 범위를 벗어나지 않으면서도 상기 설명된 장치 및 방법의 형태 및 세부 사항에서 다양한 삭제, 대체, 및 변경이 가능함을 이해할 것이다. 따라서, 본 발명의 범위는 상기 설명에서보다는 첨부된 특허청구범위에 의해 정의된다. 특허청구범위의 균등 범위 안의 모든 변형은 본 발명의 범위에 포섭된다.
110 : 제1 방향각 측정부 120 : 제2 방향각 측정부
121 : 영상 조정부 122 : 특징점 추출부
123 : 특징점 탐색부 124 : 대표 각도 추정부
130 : 방향각 처리부 140 : 영역 제한부
150 : 표적 추적부 151 : 칼만 필터 기반의 상관 추적기
160 : 방향각 오차 보정부

Claims (15)

  1. 사수의 표적 조준을 통해 이동 표적의 방향각을 획득하여 제공하기 위한 방향각 처리부;
    영상 내에서 조준점을 중심으로 영상의 일부 영역을 표적 추적을 위한 데이터 처리 영역으로 제한하기 위한 영역 제한부;
    상기 데이터 처리 영역 내에서 표적을 추적하여 표적의 위치를 파악하기 위한 표적 추적부; 및
    상기 표적의 위치와 상기 영상의 조준점 간의 불일치로 인한 오차를 계산하여 서로 일치시킴으로써 방향각 오차를 보정하기 위한 방향각 오차 보정부;를 포함하되,
    사수가 이동 표적을 조준함에 따라 자세 센서를 이용하여 제1 방향각을 측정하기 위한 제1 방향각 측정부; 및 사수가 이동 표적을 조준함에 따라 영상 센서를 이용하여 제2 방향각을 측정하기 위한 제2 방향각 측정부;를 더 포함하고,
    상기 방향각 처리부는, 상기 제1 방향각 및 상기 제2 방향각을 융합 처리하여 바이어스 오차가 보정된 상기 방향각을 획득하며,
    상기 방향각 처리부는, 상기 제1 방향각을 누적시키고, 상기 제2 방향각이 입력되는 경우에 현재 측정된 상기 제1 방향각을 상기 제2 방향각으로 갱신하여 상기 제1 방향각의 바이어스 오차를 보정하는 사수의 조준 오차를 보정하는 무유도 로켓 조준 장치.
  2. 삭제
  3. 삭제
  4. 제 1 항에 있어서,
    상기 제1 방향각 측정부는,
    사수가 이동 표적을 지향하는 행위로 발생하는 자세 변화를 측정하여 제1 방향각을 측정하는 사수의 조준 오차를 보정하는 무유도 로켓 조준 장치.
  5. 제 1 항에 있어서,
    상기 제2 방향각 측정부는,
    영상 내에서 표적이 위치하는 중심부분을 제외한 배경부분의 픽셀 이동량을 계산하여 핀홀 카메라 모델과 카메라 스펙(시야각, 크기)을 이용하여 제2 방향각을 측정하는 사수의 조준 오차를 보정하는 무유도 로켓 조준 장치.
  6. 제 1 항에 있어서,
    상기 영역 제한부는,
    상기 데이터 처리 영역을 표적의 위치를 파악하기 위한 여유 영역인 추적 영역으로 설정하고, 추적 영역 내에 표적의 움직임을 따라 이동 가능한 표적 템플릿을 설정하는 사수의 조준 오차를 보정하는 무유도 로켓 조준 장치.
  7. 제 6 항에 있어서,
    상기 영역 제한부는,
    상기 표적 템플릿의 크기를 표적과의 상대거리를 이용하여 표적의 크기에 따라 설정하는 사수의 조준 오차를 보정하는 무유도 로켓 조준 장치.
  8. 제 1 항에 있어서,
    상기 표적 추적부는,
    칼만 필터 기반의 상관 추적기(KF based matching tracker)를 사용하는 추적 학습 검출(Tracking Learning Detection, TLD) 기반으로 표적을 추적하는 사수의 조준 오차를 보정하는 무유도 로켓 조준 장치.
  9. 제 1 항에 있어서,
    상기 방향각 오차 보정부는,
    상기 표적의 위치와 상기 영상의 조준점에 대해 픽셀 단위를 각도 단위로 변환하여 요(yaw) 방향과 피치(pitch) 방향에 대한 조준점과 표적의 중점을 일치시키는 사수의 조준 오차를 보정하는 무유도 로켓 조준 장치.
  10. 사수의 표적 조준을 통해 이동 표적의 방향각을 획득하여 제공하는 단계;
    영상 내에서 조준점을 중심으로 영상의 일부 영역을 표적 추적을 위한 데이터 처리 영역으로 제한하는 단계;
    상기 데이터 처리 영역 내에서 표적을 추적하여 표적의 위치를 파악하는 단계; 및
    상기 표적의 위치와 상기 영상의 조준점 간의 오차를 계산하여 서로 일치시키는 단계;를 포함하되,
    사수가 이동 표적을 조준함에 따라 자세 센서를 이용하여 제1 방향각을 측정하는 단계; 및 사수가 이동 표적을 조준함에 따라 영상 센서를 이용하여 제2 방향각을 측정하는 단계;를 더 포함하고,
    상기 제공 단계는, 상기 제1 방향각 및 상기 제2 방향각을 융합 처리하여 바이어스 오차가 보정된 상기 방향각을 획득하며,
    상기 제공 단계는, 상기 제1 방향각을 누적시키고, 상기 제2 방향각이 입력되는 경우에 현재 측정된 상기 제1 방향각을 상기 제2 방향각으로 갱신하여 상기 제1 방향각의 바이어스 오차를 보정하는 사수의 조준 오차를 보정하는 무유도 로켓 조준 방법.
  11. 삭제
  12. 삭제
  13. 제 10 항에 있어서,
    상기 제한 단계는,
    상기 데이터 처리 영역을 표적의 위치를 파악하기 위한 여유 영역인 추적 영역으로 설정하고, 추적 영역 내에 표적의 움직임을 따라 이동 가능한 표적 템플릿을 설정하는 사수의 조준 오차를 보정하는 무유도 로켓 조준 방법.
  14. 제 10 항에 있어서,
    상기 파악 단계는,
    칼만 필터 기반의 상관 추적기(KF based matching tracker)를 사용하는 추적 학습 검출(Tracking Learning Detection, TLD) 기반으로 표적을 추적하는 사수의 조준 오차를 보정하는 무유도 로켓 조준 방법.
  15. 제 10 항에 있어서,
    상기 보정 단계는,
    상기 표적의 위치와 상기 영상의 조준점에 대해 픽셀 단위를 각도 단위로 변환하여 요(yaw) 방향과 피치(pitch) 방향에 대한 조준점과 표적의 중점을 일치시키는 사수의 조준 오차를 보정하는 무유도 로켓 조준 방법.
KR1020170124298A 2017-09-26 2017-09-26 사수의 조준 오차를 보정하는 무유도 로켓 조준 장치 및 그 방법 KR101944631B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170124298A KR101944631B1 (ko) 2017-09-26 2017-09-26 사수의 조준 오차를 보정하는 무유도 로켓 조준 장치 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170124298A KR101944631B1 (ko) 2017-09-26 2017-09-26 사수의 조준 오차를 보정하는 무유도 로켓 조준 장치 및 그 방법

Publications (1)

Publication Number Publication Date
KR101944631B1 true KR101944631B1 (ko) 2019-01-31

Family

ID=65323347

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170124298A KR101944631B1 (ko) 2017-09-26 2017-09-26 사수의 조준 오차를 보정하는 무유도 로켓 조준 장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR101944631B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102523927B1 (ko) * 2022-11-21 2023-04-21 한화시스템(주) Ai 화기 조준 및 통제 장치 및 그 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001165694A (ja) * 1999-12-10 2001-06-22 Nec Corp 人工衛星の姿勢角センサ較正装置
KR101172283B1 (ko) * 2012-05-31 2012-08-09 국방과학연구소 해상 표적 검출 방법
KR101364047B1 (ko) 2012-11-05 2014-02-27 재단법인대구경북과학기술원 물체인식을 바탕으로 한 칼만필터를 이용한 이동체의 자기위치 추정방법 및 장치
KR20140087832A (ko) 2012-12-31 2014-07-09 삼성테크윈 주식회사 무장 시스템 및 그의 동작 방법
KR20150055317A (ko) * 2013-11-13 2015-05-21 국방과학연구소 관성항법장치를 이용한 시선 안정화 시스템의 표적 추적 방법, 장치 및 컴퓨터 판독 가능한 기록 매체

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001165694A (ja) * 1999-12-10 2001-06-22 Nec Corp 人工衛星の姿勢角センサ較正装置
KR101172283B1 (ko) * 2012-05-31 2012-08-09 국방과학연구소 해상 표적 검출 방법
KR101364047B1 (ko) 2012-11-05 2014-02-27 재단법인대구경북과학기술원 물체인식을 바탕으로 한 칼만필터를 이용한 이동체의 자기위치 추정방법 및 장치
KR20140087832A (ko) 2012-12-31 2014-07-09 삼성테크윈 주식회사 무장 시스템 및 그의 동작 방법
KR20150055317A (ko) * 2013-11-13 2015-05-21 국방과학연구소 관성항법장치를 이용한 시선 안정화 시스템의 표적 추적 방법, 장치 및 컴퓨터 판독 가능한 기록 매체

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102523927B1 (ko) * 2022-11-21 2023-04-21 한화시스템(주) Ai 화기 조준 및 통제 장치 및 그 방법

Similar Documents

Publication Publication Date Title
US9881379B2 (en) Self-localization device and movable body
CN112985416B (zh) 激光与视觉信息融合的鲁棒定位和建图方法及系统
US10917593B2 (en) Camera calibration device that estimates internal parameter of camera
JP6760114B2 (ja) 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム
US10694103B2 (en) Building system and building method for panorama point cloud
Milella et al. Stereo-based ego-motion estimation using pixel tracking and iterative closest point
US7965868B2 (en) System and method for bullet tracking and shooter localization
WO2016035324A1 (en) Method for estimating motion, mobile agent and non-transitory computer-readable medium encoded with a computer program code for causing a processor to execute a method for estimating motion
CN107727079A (zh) 一种微小型无人机全捷联下视相机的目标定位方法
EP2901236B1 (en) Video-assisted target location
US10121091B2 (en) IMU-aided image registration
CN107817679A (zh) 基于红外与可见光融合跟踪的舰船水炮控制系统及方法
DK2984625T3 (en) PROCEDURE FOR ESTIMATING THE ANGLE DIFFERENCE FOR A MOBILE ELEMENT IN TERMS OF A REFERENCE DIRECTION
JPWO2016016955A1 (ja) 自律移動装置及び自己位置推定方法
CN109816606B (zh) 一种利用光学遥感卫星进行目标跟踪的方法
WO2018142533A1 (ja) 位置姿勢推定装置および位置姿勢推定方法
Bratanov et al. A vision-based sense-and-avoid system tested on a ScanEagle UAV
CN113610896B (zh) 一种简易火控瞄具中目标提前量测量方法及系统
KR101944631B1 (ko) 사수의 조준 오차를 보정하는 무유도 로켓 조준 장치 및 그 방법
Brunner et al. Combining multiple sensor modalities for a localisation robust to smoke
CA3064640A1 (en) Navigation augmentation system and method
WO2020243256A1 (en) System and method for navigation and geolocation in gps-denied environments
CN108731683B (zh) 一种基于导航信息的无人机自主回收目标预测方法
KR101957662B1 (ko) 표적 정보 산출 장치, 그 방법 및 이를 포함하는 비행 제어 시스템
Alpatov et al. An estimation algorithm of the multispectral image geometric transformation parameters based on multiple reference area tracking

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant