KR20200082466A - Method for processing and tracking video data from EO-IR camera installed in unmanned aerial vehicle and system thereof - Google Patents

Method for processing and tracking video data from EO-IR camera installed in unmanned aerial vehicle and system thereof Download PDF

Info

Publication number
KR20200082466A
KR20200082466A KR1020180173076A KR20180173076A KR20200082466A KR 20200082466 A KR20200082466 A KR 20200082466A KR 1020180173076 A KR1020180173076 A KR 1020180173076A KR 20180173076 A KR20180173076 A KR 20180173076A KR 20200082466 A KR20200082466 A KR 20200082466A
Authority
KR
South Korea
Prior art keywords
frame
tracking
image
buffer
image data
Prior art date
Application number
KR1020180173076A
Other languages
Korean (ko)
Other versions
KR102163697B1 (en
Inventor
김미정
박가영
강명호
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020180173076A priority Critical patent/KR102163697B1/en
Publication of KR20200082466A publication Critical patent/KR20200082466A/en
Application granted granted Critical
Publication of KR102163697B1 publication Critical patent/KR102163697B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/926Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
    • H04N5/9261Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation involving data reduction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

According to one embodiment of the present invention, the method of processing a video of an EO-IR camera installed in an unmanned aerial vehicle comprises: a step wherein a video data reception unit receives an original video data outputted from the camera for a preset period and the frame numbers of frames composing the original video data; a step wherein a video buffer storage unit separates the received original video data for each frame, and respectively stores the data in frame buffers placed for each frame; a step wherein a number buffer storage unit stores the received frame numbers in a number buffer; a step wherein a video compression unit receives the original video data stored in the frame buffer and comprehensively compresses the data; and a step wherein a synchronization processing unit synchronizes the frame numbers stored in the number buffer for each frame of the compressed video. The present invention aims to provide the method of processing the video of the EO-IR camera installed in the unmanned aerial vehicle, capable of minimizing the difference between the point of time for showing the video on ground equipment and the point of time for photographing by the EO-IR equipment on the unmanned aerial vehicle.

Description

무인항공기에 탑재되는 전자광학-적외선 카메라의 영상처리방법, 영상추적방법 및 그 시스템 {Method for processing and tracking video data from EO-IR camera installed in unmanned aerial vehicle and system thereof}Electro-optical-infrared camera image processing method, image tracking method and its system {Method for processing and tracking video data from EO-IR camera installed in unmanned aerial vehicle and system thereof}

본 발명은 무인항공기에 탑재되는 전자광학-적외선 카메라의 영상처리방법, 영상추적방법 및 그 시스템에 관한 것으로서, 보다 구체적으로는, 지상장비와 통신하는 무인항공기에 탑재되어 있는 전자광학-적외선 카메라의 영상을 처리하거나 추적하는 방법 및 그 방법을 구현하기 위한 시스템에 관한 것이다.The present invention relates to an image processing method, an image tracking method, and a system thereof of an electro-optical-infrared camera mounted on an unmanned aerial vehicle, and more specifically, an electro-optical-infrared camera mounted on an unmanned aerial vehicle communicating with ground equipment. A method for processing or tracking an image and a system for implementing the method.

무인항공기에 탑재된 전자광학-적외선(EO-IR)장비는 지상장비와 통신을 수행하면서, 각종 명령 및 영상데이터를 송수신한다. 이때, 데이터의 송수신 경로, 무선망 및 지상장비의 상태에 따라 데이터 전송의 지연이 발생할 수 있다. Electro-optical-infrared (EO-IR) equipment mounted on unmanned aerial vehicles transmits and receives various commands and video data while communicating with ground equipment. At this time, a delay in data transmission may occur depending on a data transmission/reception path, a state of a wireless network, and ground equipment.

위와 같은 데이터 전송의 지연의 발생은, 지상장비에 수신된 영상을 시현하는 시점과 무인항공기에 탑재된 EO-IR장비가 영상을 촬영하는 시점의 차이를 필연적으로 유발한다. 특히, EO-IR 장비로 촬영된 표적(target)의 움직임의 속도가 과도하게 빠르거나, 일정 수준을 초과하는 움직임을 보일 경우, 무인항공기가 촬영한 영상이 지상장비에 도달하고 지상장비에 해당 영상에서 표적을 포착하라는 명령이 그 무인항공기에 전달하는 과정에서, 표적이 최초에 포착되었던 지점으로부터 많이 이탈해있게 되어서, 결국 무인항공기의 EO-IR 장비가 최초에 포착한 표적에 대해서 포착상태를 계속 유지하기가 어려워지는, 추적정확도 저하현상이 발생한다.The occurrence of the delay in data transmission as described above inevitably causes a difference between the time when the image received on the ground equipment is displayed and the time when the EO-IR equipment mounted on the unmanned aerial vehicle photographs the image. In particular, when the speed of movement of a target photographed with EO-IR equipment is excessively fast or shows a movement exceeding a certain level, the image taken by the unmanned aerial vehicle reaches the ground equipment and corresponds to the ground equipment. In the course of the command to capture the target from the aircraft to the unmanned aerial vehicle, the target was deviated from the point where it was originally captured, and eventually the unmanned aerial vehicle's EO-IR equipment continued to capture the target. The tracking accuracy decreases, which is difficult to maintain.

1. 대한민국 등록특허공보 제10-1837407호 (2018.03.12 공고발행)1. Republic of Korea Registered Patent Publication No. 10-1837407 (Publication of March 12, 2018) 2. 대한민국 공개특허공보 제10-2011-0113948호 (2011.10.19 공개)2. Republic of Korea Patent Publication No. 10-2011-0113948 (released on October 19, 2011) 3. 대한민국 등록특허공보 제10-1394164호 (2014.05.16 공고발행)3. Republic of Korea Registered Patent Publication No. 10-1394164 (published on May 16, 2014)

본 발명이 해결하고자 하는 기술적 과제는 지상장비에서의 영상시현시점과 무인항공기의 EO-IR장비의 촬영시점의 차이를 최소화하는, 무인항공기에 탑재되는 전자광학-적외선 카메라의 영상처리방법, 영상추적방법 및 그 시스템을 제공하는 데에 있다.The technical problem to be solved by the present invention is to minimize the difference between the image viewing time on the ground equipment and the shooting time of the EO-IR equipment of the unmanned aerial vehicle, the image processing method of the electronic optical-infrared camera mounted on the unmanned aerial vehicle, and the image tracking method And providing the system.

상기 기술적 과제를 해결하기 위한 본 발명의 일 실시 예에 따른 방법은, 무인항공기에 탑재되는 전자광학-적외선(EO-IR) 카메라의 영상 처리방법으로서, 영상데이터수신부가 상기 카메라로부터 출력된 원시영상데이터 및 상기 원시영상데이터를 구성하는 프레임들의 프레임번호를 수신하는 영상데이터수신단계; 영상버퍼저장부가 상기 수신된 원시영상데이터를 프레임별로 분리하고, 프레임별로 구비된 프레임버퍼에 각각 저장하는 영상버퍼저장단계; 번호버퍼저장부가 상기 수신된 프레임번호를 번호버퍼에 저장하는 번호버퍼저장단계; 영상압축부가 상기 프레임버퍼에 저장된 원시영상데이터를 수신하여 일괄적으로 압축하는 영상압축단계; 및 동기화처리부가 상기 번호버퍼에 저장된 프레임번호를 상기 압축된 영상의 프레임별로 동기화시키는 동기화처리단계;를 포함한다.The method according to an embodiment of the present invention for solving the above technical problem is an image processing method of an electro-optical-infrared (EO-IR) camera mounted in an unmanned aerial vehicle, wherein the image data receiving unit outputs the original image from the camera An image data receiving step of receiving frame numbers of data and frames constituting the raw image data; An image buffer storage step in which the image buffer storage unit separates the received raw image data for each frame, and stores each of the received raw image data in a frame buffer provided per frame; A number buffer storage step in which the number buffer storage unit stores the received frame number in a number buffer; An image compression step in which the image compression unit receives the raw image data stored in the frame buffer and collectively compresses it; And a synchronization processing step in which the synchronization processing unit synchronizes the frame numbers stored in the number buffer for each frame of the compressed image.

상기 기술적 과제를 해결하기 위한 본 발명의 다른 일 실시 예에 따른 방법은, 무인항공기에 탑재되는 전자광학-적외선 카메라의 영상 추적방법으로서, 지상장비로부터 제1프레임번호, 게이트크기, 게이트좌표를 포함하는 영상추적정보를 수신하는 추적정보수신단계; 상기 수신된 제1프레임번호가 현재시점에 대한 제2프레임번호보다 더 앞선 시점의 프레임의 번호라면, 영상버퍼에서 상기 제1프레임번호에 대한 영상프레임을 검색하는 프레임검색단계; 상기 제1프레임번호 및 상기 제2프레임번호의 차이를 기초로 하여 복수의 추적알고리즘 중 어느 하나를 선택하는 알고리즘선택단계; 및 상기 선택된 추적알고리즘에 결정된 추적속도에 따라 상기 제1프레임번호의 영상프레임부터 상기 제2프레임번호의 영상프레임에 도달할 때까지 상기 게이트크기, 상기 게이트좌표에 대한 표적의 움직임을 추적하는 영상추적단계를 포함한다.The method according to another embodiment of the present invention for solving the above technical problem is a method for tracking an image of an electro-infrared camera mounted on an unmanned aerial vehicle, and includes a first frame number, gate size, and gate coordinates from ground equipment. Tracking information receiving step of receiving the image tracking information; A frame search step of searching for a video frame for the first frame number in an image buffer if the received first frame number is a number of a frame at a point earlier than the second frame number for the current time; An algorithm selection step of selecting any one of a plurality of tracking algorithms based on the difference between the first frame number and the second frame number; And the image size tracking the movement of the target with respect to the gate size and the gate coordinates from the video frame of the first frame number to the video frame of the second frame number according to the tracking speed determined by the selected tracking algorithm. Steps.

상기 기술적 과제를 해결하기 위한 본 발명의 또 다른 일 실시 예에 따른 시스템은, 무인항공기에 탑재되는 전자광학-적외선(EO-IR) 카메라의 영상 처리시스템으로서, 상기 카메라로부터 출력된 원시영상데이터 및 상기 원시영상데이터를 구성하는 프레임들의 프레임번호를 수신하는 영상데이터수신부;영상버퍼저장부가 상기 수신된 원시영상데이터를 프레임별로 분리하고, 프레임별로 구비된 프레임버퍼에 각각 저장하는 영상버퍼저장부; 번호버퍼저장부가 상기 수신된 프레임번호를 번호버퍼에 저장하는 번호버퍼저장부; 영상압축부가 상기 프레임버퍼에 저장된 원시영상데이터를 수신하여 일괄적으로 압축하는 영상압축부; 및 동기화처리부가 상기 번호버퍼에 저장된 프레임번호를 상기 압축된 영상의 프레임별로 동기화시키는 동기화처리부;를 포함한다.The system according to another embodiment of the present invention for solving the above technical problem is an image processing system of an electro-optical-infrared (EO-IR) camera mounted in an unmanned aerial vehicle, the raw image data output from the camera and An image data receiving unit receiving frame numbers of frames constituting the raw image data; an image buffer storage unit separating the received raw image data into frames, and storing each of the received raw image data in a frame buffer provided for each frame; A number buffer storage unit for storing the received frame number in the number buffer; An image compression unit for receiving the raw image data stored in the frame buffer and compressing it in a batch; And a synchronization processing unit for synchronizing the frame number stored in the number buffer for each frame of the compressed image.

상기 기술적 과제를 해결하기 위한 본 발명의 또 다른 일 실시 예에 따른 시스템은, 무인항공기에 탑재되는 전자광학-적외선 카메라의 영상 처리시스템으로서,지상장비로부터 제1프레임번호, 게이트크기, 게이트좌표를 포함하는 영상추적정보를 수신하는 추적정보수신부; 상기 수신된 제1프레임번호가 현재시점에 대한 제2프레임번호보다 더 앞선 시점의 프레임의 번호라면, 영상버퍼에서 상기 제1프레임번호에 대한 영상프레임을 검색하는 프레임검색부; 상기 제1프레임번호 및 상기 제2프레임번호의 차이를 기초로 하여 복수의 추적알고리즘 중 어느 하나를 선택하는 알고리즘선택부; 및 상기 선택된 추적알고리즘에 결정된 추적속도에 따라 상기 제1프레임번호의 영상프레임부터 상기 제2프레임번호의 영상프레임에 도달할 때까지 상기 게이트크기, 상기 게이트좌표에 대한 표적의 움직임을 추적하는 영상추적부를 포함한다.The system according to another embodiment of the present invention for solving the above technical problem is an image processing system of an electro-optical-infrared camera mounted on an unmanned aerial vehicle, wherein a first frame number, gate size, and gate coordinates are received from ground equipment. Tracking information receiving unit for receiving the image tracking information including; A frame search unit for searching the video frame for the first frame number in an image buffer if the received first frame number is a number of a frame at a point earlier than the second frame number for the current time; An algorithm selection unit selecting any one of a plurality of tracking algorithms based on the difference between the first frame number and the second frame number; And the image size tracking the movement of the target with respect to the gate size and the gate coordinates from the video frame of the first frame number to the video frame of the second frame number according to the tracking speed determined by the selected tracking algorithm. Includes wealth.

본 발명의 일 실시 예는 상기 방법을 구현시키기 위한 프로그램을 저장하고 있는 컴퓨터 판독가능한 기록매체를 제공할 수 있다.One embodiment of the present invention can provide a computer-readable recording medium storing a program for implementing the method.

본 발명에 따르면, 지상장비에서의 영상시현시점과 무인항공기의 EO-IR장비의 촬영시점의 차이를 최소화하여, 표적에 대한 초기 성공률을 획기적으로 향상시킬 수 있으며, 무인항공기 등 원격으로 통제되는 플랫폼에 장착된 EO-IR의 임무 성공률을 높여 EO-IR 장비의 활용도를 한층 더 개선시킬 수 있다.According to the present invention, it is possible to dramatically improve the initial success rate for the target by minimizing the difference between the image viewing time on the ground equipment and the shooting time of the EO-IR equipment of the unmanned aerial vehicle, and to a remotely controlled platform such as an unmanned aerial vehicle. By increasing the success rate of the installed EO-IR mission, the utilization of the EO-IR equipment can be further improved.

도 1은 무인항공기의 EO-IR장비와 지상통제장치 간의 통신과정의 일 예를 도식적으로 나타낸 도면이다.
도 2는 본 발명에 따른 영상처리 시스템의 일 예의 블록도를 도시한 도면이다.
도 3은 EO-IR장비로부터 생성된 원시영상데이터 및 메타데이터가 영상압축시스템에 의해 압축되는 과정을 도식적으로 나타낸 도면이다.
도 4는 지상통제장치를 통한 영상추적명령 전송 플로우의 일 예를 도식적으로 나타낸 도면이다.
도 5는 영상압축시스템이 원시영상데이터를 압축하여 지상통제장치로 송신하는 과정을 흐름도로 나타낸 도면이다.
도 6은 지상통제장치로부터 영상추적명령을 수신한 영상추적시스템이 영상을 추적하는 과정을 흐름도로 나타낸 도면이다.
FIG. 1 is a diagram schematically showing an example of a communication process between an EO-IR device of an unmanned aerial vehicle and a ground control device.
2 is a block diagram of an example of an image processing system according to the present invention.
3 is a diagram schematically showing a process in which raw image data and metadata generated from EO-IR equipment are compressed by an image compression system.
4 is a diagram schematically showing an example of an image tracking command transmission flow through the ground control device.
FIG. 5 is a flowchart illustrating a process in which the image compression system compresses the raw image data and transmits it to the ground control device.
FIG. 6 is a flowchart illustrating a process of tracking an image by an image tracking system that receives an image tracking command from a ground control device.

실시 예들에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terminology used in the embodiments has been selected from general terms that are currently widely used as possible while considering functions in the present invention, but this may vary depending on the intention or precedent of a person skilled in the art or the appearance of a new technology. In addition, in certain cases, some terms are arbitrarily selected by the applicant, and in this case, their meanings will be described in detail in the description of the applicable invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the entire contents of the present invention, not a simple term name.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "…부", "…모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When a certain part of the specification "includes" a certain component, this means that other components may be further included instead of excluding other components unless otherwise specified. In addition, terms such as “…unit” and “…module” described in the specification mean a unit that processes at least one function or operation, which may be implemented in hardware or software, or a combination of hardware and software.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains may easily practice. However, the present invention can be implemented in many different forms and is not limited to the embodiments described herein.

이하에서는 도면을 참조하여 본 발명의 실시 예들을 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 무인항공기의 EO-IR장비와 지상통제장치 간의 통신과정의 일 예를 도식적으로 나타낸 도면이다.FIG. 1 is a diagram schematically showing an example of a communication process between an EO-IR device of an unmanned aerial vehicle and a ground control device.

도 1을 참조하면, 무인항공기의 EO-IR장비(10)로부터 출력된 영상은 무인기데이터링크모듈(20)를 통해 지상통제장치(30)로 송신되는 것을 알 수 있다. 도 1은 무인항공기의 EO-IR장비와 지상통제장치 간의 통신과정을 설명하기 위한 개략도로서, 통신과정을 설명하기 위한 구성을 제외한 나머지 구성은 생략되었다고 가정한다.Referring to FIG. 1, it can be seen that the image output from the EO-IR equipment 10 of the unmanned aerial vehicle is transmitted to the ground control device 30 through the unmanned aerial vehicle data link module 20. 1 is a schematic diagram for explaining a communication process between the EO-IR equipment and the ground control device of an unmanned aerial vehicle, and it is assumed that the rest of the configuration is omitted except for the configuration for explaining the communication process.

무인항공기의 EO-IR(ElectrOoptic-InfRared)장비(10)는 크게 ECA모듈(11), ICA모듈(13), ITA모듈(15), IPA모듈(17) 및 CTA모듈(19)로 구성된다.The EO-IR (ElectrOoptic-InfRared) equipment 10 of an unmanned aerial vehicle is largely composed of an ECA module 11, an ICA module 13, an ITA module 15, an IPA module 17, and a CTA module 19.

먼저, ECA모듈(11)은 전자광학카메라를 포함하는 모듈로서, 전자광학카메라를 통해 촬영대상을 촬영하고, 촬영으로 인해 생성되는 원시영상데이터(raw video data)를 프레임번호와 함께 ITA모듈(15)로 전달한다. 이 과정에서, 프레임번호 외에도 원시영상데이터에 대한 각종 메타데이터(metadata)도 ITA모듈(15)로 전달된다.First, the ECA module 11 is a module including an electro-optical camera, which photographs an object to be photographed through an electro-optical camera, and the ITA module (15) with the raw video data generated by the shooting along with the frame number. ). In this process, in addition to the frame number, various metadata about the raw image data are also transmitted to the ITA module 15.

ICA모듈(13)은 적외선카메라를 포함하는 모듈로서, 적외선카메라를 통해 촬영대상을 촬영하고, 촬영으로 인해 생성되는 원시영상데이터를 프레임번호와 함께 ITA모듈(15)로 전달한다. 이 과정에서, 프레임번호 외에도 원시영상데이터에 대한 각종 메타데이터도 ITA모듈(15)로 전달된다.The ICA module 13 is a module including an infrared camera, which photographs an object to be photographed through an infrared camera, and transmits raw image data generated by the photographing to the ITA module 15 along with the frame number. In this process, in addition to the frame number, various metadata about the raw image data are also transmitted to the ITA module 15.

ITA모듈(15)은 ECA모듈(11) 및 ICA모듈(13)로부터 원시영상데이터 및 그 원시영상데이터에 대한 메타데이터를 전달받고, 전달받은 원시영상데이터 및 그 원시영상데이터의 메타데이터를 IPA모듈(17)로 전달한다. ECA모듈(11) 및 ICA모듈(13)로부터 1초당 30프레임의 원시영상데이터 및 메타데이터가 출력되면, ITA모듈(15)은 그 데이터들을 취합하여 IPA모듈(17)에 전달하는 기능을 수행한다.The ITA module 15 receives the raw image data and metadata about the raw image data from the ECA module 11 and the ICA module 13, and receives the received raw image data and metadata of the raw image data from the IPA module. (17). When 30 frames per second of raw image data and metadata are output from the ECA module 11 and the ICA module 13, the ITA module 15 collects the data and transmits it to the IPA module 17. .

IPA모듈(17)은 ITA모듈(15)로부터 필터링된 원시영상데이터 및 메타데이터를 전달받고, 원시영상데이터에 대한 영상압축과정의 전처리과정으로서, 미리 설정된 필터(filter)를 통해서 원시영상데이터의 각각의 프레임에서 특정한 데이터를 필터링처리한다. 이 과정에서 원시영상데이터로부터 불필요한 노이즈가 제거되거나 대조비(contrast ratio)강조 효과가 적용될 수 있다.The IPA module 17 receives filtered raw image data and metadata from the ITA module 15, and preprocesses the image compression process for the raw image data, and each of the raw image data through a preset filter. Filter specific data in the frame of. In this process, unnecessary noise may be removed from the raw image data, or a contrast ratio enhancement effect may be applied.

CTA모듈(19)은 IPA모듈(17)로부터 전달받은 원시영상데이터를 프레임별로 분리한다. CTA모듈(19)은 원시영상데이터 외의 메타데이터는 CTA모듈(19)의 별도의 버퍼에 전달될 수 있도록 데이터라벨링처리를 수행할 수 있다. CTA모듈(19)은 프레임들과 메타데이터들을 일련의 과정을 통해서 가공하고, 압축(encoding)하는 과정을 수행하는 모듈로서, 영상압축은 무선통신을 통해서 지상통제장치(30)에 영상을 전달하기 위한 필수작업이다. CTA모듈(19)에 의해서 압축된 원시영상데이터들은 무인기데이터링크모듈(20)을 통해서 지상통제장치(30)에 전달된다.The CTA module 19 separates the raw image data received from the IPA module 17 for each frame. The CTA module 19 may perform data labeling processing so that metadata other than the raw image data can be transferred to a separate buffer of the CTA module 19. The CTA module 19 is a module that performs a process of processing frames and metadata through a series of processes and encoding, and the image compression transmits an image to the ground control device 30 through wireless communication. It is an essential task. The raw image data compressed by the CTA module 19 is transmitted to the ground control device 30 through the unmanned data link module 20.

지상통제장치(30)에 도달한 원시영상데이터들은 압축이 해제(decoding)된 후에 재생(play)되며, 사용자는 지상통제장치(30)를 통해서 재생되는 원시영상데이터에서 포착해야 하는 표적을 발견하면, 해당 표적을 포착 후 계속 추적하라는 명령을 무인항공기에 전달할 수 있다.The raw image data reaching the ground control device 30 is played back after being decompressed, and when the user finds a target to be captured in the raw image data played through the ground control device 30, In other words, it is possible to send a command to the unmanned aerial vehicle to capture the target and keep tracking it.

도 2는 본 발명에 따른 영상처리 시스템의 일 예의 블록도를 도시한 도면이다. 2 is a block diagram of an example of an image processing system according to the present invention.

도 2를 참조하면, 본 발명에 따른 영상처리시스템(200)은 영상압축시스템(210) 및 영상추적시스템(230)을 포함하는 것을 알 수 있다. 도 2의 영상처리시스템(200)은 도 1에서 설명한 무인항공기의 EO-IR장비(10)에 포함되거나, EO-IR장비(10)에 물리적 또는 논리적으로 연결되어 동작할 수 있다. Referring to FIG. 2, it can be seen that the image processing system 200 according to the present invention includes an image compression system 210 and an image tracking system 230. The image processing system 200 of FIG. 2 may be included in the EO-IR equipment 10 of the unmanned aerial vehicle described in FIG. 1, or may be physically or logically connected to the EO-IR equipment 10 to operate.

또한, 도 2의 영상처리시스템(200) 및 그 영상처리시스템(200)에 포함되어 있는 하위모듈은 도 1에서 설명한 ECA모듈(11), ICA모듈(13), ITA모듈(15), IPA모듈(17) 및 CTA모듈(19)의 기능과 실질적으로 동일하거나 유사한 기능을 처리하는 모듈일 수 있을 뿐만 아니라, 실시 예에 따라서, ECA모듈(11), ICA모듈(13), ITA모듈(15), IPA모듈(17) 및 CTA모듈(19) 중 적어도 두 개 이상의 모듈을 기능을 수행하거나, 일부의 기능을 수행하는 모듈을 포함할 수도 있으므로, 도 1을 참조하여 설명하기로 한다.In addition, the image processing system 200 of FIG. 2 and the sub-modules included in the image processing system 200 are the ECA module 11, the ICA module 13, the ITA module 15, and the IPA module described in FIG. (17) and CTA module 19 may be not only a module that processes substantially the same or similar functions, but according to an embodiment, the ECA module 11, the ICA module 13, and the ITA module 15 , Since at least two or more of the IPA module 17 and the CTA module 19 may perform a function, or may include a module performing some functions, a description will be given with reference to FIG. 1.

먼저, 영상압축시스템(210)은 EO-IR장비가 촬영한 원시영상데이터를 수신하여 압축한 후, 압축된 영상데이터를 지상통제장치(30)로 송신하는 기능을 수행하는 시스템으로서, 영상데이터수신부(211), 영상버퍼저장부(212), 번호버퍼저장부(213),영상압축부(214), GPIO신호송신부(215) 및 동기화처리부(216)를 포함할 수 있다. 실시 예에 따라서, GPIO신호송신부(215)는 생략되거나, 동기화처리부(216)에 포함되는 형태로 구현될 수도 있다.First, the image compression system 210 is a system that performs a function of transmitting and compressing the compressed image data to the ground control device 30 after receiving and compressing the raw image data photographed by the EO-IR equipment, the image data receiving unit 211, an image buffer storage unit 212, a number buffer storage unit 213, an image compression unit 214, a GPIO signal transmission unit 215, and a synchronization processing unit 216. Depending on the embodiment, the GPIO signal transmission unit 215 may be omitted or may be implemented in a form included in the synchronization processing unit 216.

영상데이터수신부(211)는 미리 설정된 시간동안 EO-IR장비(10)로부터 출력된 원시영상데이터 및 그 원시영상데이터를 구성하는 프레임들의 프레임번호를 수신한다. 여기서, 영상데이터수신부(211)가 수신하는 영상이란 정지영상 및 동영상을 모두 포함하는 개념이고, 영상을 구성하는 최소 단위는 프레임(frame)이다. 예를 들어, 원시영상데이터가 10프레임짜리 영상데이터라면, 그 원시영상데이터는 10개의 프레임이 시간적 순서에 따라 이어붙여진 영상데이터이며, 프레임의 연속재생이 가능한 장치를 통해서는 동영상으로 구현될 수 있다. 영상데이터수신부(211)가 수신한 원시영상데이터의 각각의 프레임에는 프레임번호가 붙어있으며, 이러한 프레임번호는 원시영상데이터의 메타데이터(metadata)로 본다.The image data receiving unit 211 receives the raw image data output from the EO-IR equipment 10 for a predetermined time and frame numbers of frames constituting the raw image data. Here, the image received by the image data receiving unit 211 is a concept including both still images and moving images, and a minimum unit constituting the image is a frame. For example, if the raw image data is 10-frame image data, the raw image data is image data in which ten frames are concatenated in a chronological order, and can be realized as a video through a device capable of continuously reproducing frames. . Each frame of the raw image data received by the image data receiving unit 211 is attached with a frame number, and the frame number is regarded as metadata of the raw image data.

영상버퍼저장부(212)는 수신된 원시영상데이터를 프레임별로 분리하고, 프레임별로 구비된 프레임버퍼(frame buffer)에 각각 저장한다. 영상버퍼저장부(212)는 원시영상데이터를 프레임별로 분리한 후에, 프레임의 수를 파악하고, 그 파악된 수에 따라 버퍼를 구비하여, 그 버퍼마다 프레임을 각각 저장한다. 이하에서, 프레임들을 저장하는 버퍼는 편의상 프레임버퍼라고 호칭하기로 한다. 여기서, 버퍼는 데이터를 짧은 시간동안에만 저장할 수 있는 적은 용량의 메모리를 의미하고, 미리 설정된 정보에 따라서, 특정한 해상도의 프레임을 저장할 수 있을 정도로 적절한 용량을 갖고 있다.The image buffer storage unit 212 separates the received raw image data for each frame and stores each in a frame buffer provided for each frame. The image buffer storage unit 212 separates the raw image data for each frame, grasps the number of frames, and provides a buffer according to the determined number, and stores each frame for each buffer. Hereinafter, a buffer for storing frames will be referred to as a frame buffer for convenience. Here, the buffer means a memory of a small capacity capable of storing data only for a short time, and has a capacity sufficient to store a frame of a specific resolution according to preset information.

번호버퍼저장부(213)는 영상데이터수신부(211)가 수신한 프레임번호를 번호버퍼(number buffer)에 저장한다. 보다 구체적으로, 번호버퍼저장부(213)는 번호버퍼에 프레임번호를 시간적 순서에 따라서 누적시켜 저장할 수 있으며, 추후에 누적시킨 순서대로 출력시켜서 사용하기 위해서 큐(queue)방식으로 저장할 수 있다.The number buffer storage unit 213 stores the frame number received by the image data receiving unit 211 in a number buffer. More specifically, the number buffer storage unit 213 may accumulate and store frame numbers in the number buffer in a chronological order, and may be stored in a queue method for output and use in a cumulative order.

영상압축부(214)는 프레임버퍼에 저장된 원시영상데이터를 수신하고, 일괄적으로 압축한다. 여기서, 영상압축부(214)는 원시영상데이터를 프레임버퍼로부터 수신하여 일괄적으로 압축한다는 것은, 적어도 두 개 이상으로 분리되어 있던 원시영상데이터를 메타데이터가 존재하지 않는 하나의 영상데이터로 합친다는 것을 의미하고, 이 과정에서 지상통제장치로 영상데이터를 용이하고 빠르게 송신하기 위해서 압축(encoding)된다. 예를 들어, 1000개의 프레임버퍼에 저장된 원시영상데이터의 제1용량은 영상압축부(214)에 의해 압축된 후의 제2용량보다 훨씬 더 큰 용량을 갖는다. 본 발명에서, 영상데이터의 압축방법에 대해서는 널리 알려진 방식을 이용하므로, 프레임버퍼로부터 수신한 복수의 프레임을 하나의 영상데이터로 압축하는 방식을 특정한 한 가지의 방식으로 한정하지 않는다.The image compression unit 214 receives the raw image data stored in the frame buffer and compresses it in a batch. Here, the image compression unit 214 receives the raw image data from the frame buffer and collectively compresses it, and combines the raw image data separated into at least two into one image data without metadata. This means, in this process, it is encoded to transmit image data to the ground control device easily and quickly. For example, the first capacity of the raw image data stored in the 1000 frame buffers has a much larger capacity than the second capacity after being compressed by the image compression unit 214. In the present invention, since a well-known method is used for a method of compressing image data, a method of compressing a plurality of frames received from a frame buffer into one image data is not limited to one specific method.

GPIO신호송신부(215)에 대해서는, 설명의 편의를 위해서, 도 3에서 후술하기로 한다.The GPIO signal transmitter 215 will be described later in FIG. 3 for convenience of description.

동기화처리부(216)는 번호버퍼에 저장된 프레임번호를 영상압축부(214)에 의해 압축된 영상의 프레임별로 동기화시킨다. 동기화된 압축된 영상을 프레임번호와 함께 지상통제장치(30)에 송신된다.The synchronization processing unit 216 synchronizes the frame number stored in the number buffer for each frame of the image compressed by the image compression unit 214. The synchronized compressed image is transmitted to the ground control device 30 together with the frame number.

지상통제장치(30)는 동기화된 압축된 영상을 프레임번호와 함께 수신하고, 재생한다. 사용자는 지상통제장치(30)에서 압축이 해제(decoding)되어 재생되는 영상을 검토하고, 특정 프레임에서 추적이 필요한 추적대상을 포착(Lock-On)하고, 그 추적대상을 추적하라는 추격명령을 무인항공기의 영상처리시스템(200)에 송신할 수 있다. 영상처리시스템(200)은 추적명령을 수신하고, 수신된 추적명령을 영상추적시스템(230)에 전달하여, 사용자가 특정한 표적이 계속 추적될 수 있도록 할 수 있다.The ground control device 30 receives and reproduces the synchronized compressed image together with the frame number. The user reviews the video that is reproduced after being decompressed (decoded) in the ground control device 30, captures a tracking target that needs to be tracked in a specific frame (Lock-On), and unattended a tracking command to track the tracking target It can be transmitted to the image processing system 200 of the aircraft. The image processing system 200 may receive a tracking command and transmit the received tracking command to the image tracking system 230 so that a specific target can be continuously tracked by the user.

도 2를 참조하면, 영상추적시스템(230)은 추적정보수신부(231), 프레임검색부(233), 알고리즘선택부(235) 및 영상추적부(237)를 포함할 수 있다는 것을 알 수 있다. 도 2의 영상추적시스템(230)은 지상통제장치(30)로부터 수신된 추적명령을 분석하고, 영상버퍼(video buffer)에서 저장된 영상들의 프레임을 검색하여, 추적대상을 파악하고, 추적을 진행하는 기능을 수행한다.Referring to FIG. 2, it can be seen that the image tracking system 230 may include a tracking information receiving unit 231, a frame searching unit 233, an algorithm selection unit 235, and an image tracking unit 237. The image tracking system 230 of FIG. 2 analyzes a tracking command received from the ground control device 30, searches for frames of images stored in a video buffer, identifies a tracking target, and proceeds with tracking Perform a function.

추적정보수신부(231)는 지상통제장치(30)로부터 제1프레임번호, 게이트크기, 게이트좌표를 포함하는 영상추적정보를 수신한다. 여기서, 제1프레임번호는 사용자가 지상통제장치(30)를 통해 재생되고 있던 영상데이터에서 추적대상을 포착하였을 때, 그 포착한 순간의 프레임에 대한 번호를 의미한다. 예를 들어, t프레임부터 t+10프레임까지 재생되고 있던 영상데이터에서, t+4프레임에서 시점에서 갑자기 추적대상이 나타나서, 사용자가 지상통제장치(30)를 통해서 그 추적대상을 포착하라는 명령을 생성하여 무인항공기에 송신했다면, 제1프레임번호는 "t+4"가 된다.The tracking information receiving unit 231 receives image tracking information including the first frame number, gate size, and gate coordinates from the ground control device 30. Here, the first frame number refers to a number for a frame at the moment when the user captures a tracking target from the video data being played through the ground control device 30. For example, in the image data being played from t frame to t+10 frame, the tracking object suddenly appears at the time point at t+4 frame, so that the user commands the ground control device 30 to capture the tracking object. If generated and transmitted to an unmanned aerial vehicle, the first frame number is "t+4".

게이트크기(size of gate)는 제1프레임번호에 해당하는 프레임에서, 추적대상을 둘러싸는 직사각형의 가로, 세로의 길이를 의미한다. 프레임에서 추적대상의 크기가 대략적으로 어느 정도의 크기인지 나타내는 지표로서, 픽셀단위로 표현될 수 있다. 예를 들어, 프레임의 전체 해상도가 640*480 픽셀이라면, 게이트크기는 40*30 일 수 있다. 게이트크기는 추적대상이 프레임에서 차지하는 크기에 따라서 유동적이다. 게이트좌표(coordinate of gate)는 제1프레임번호에 해당하는 프레임에서, 추적대상이 특정되었을 때, 그 추적대상의 중심지점의 좌표를 의미한다. 게이트좌표는 제1프레임번호에 대한 프레임에서, 추적대상이 구체적으로 어느 위치에 있는지를 나타나는 지표로서, 2차원 좌표값으로 표현될 수 있다.The gate size (size of gate) means a horizontal and vertical length of a rectangle surrounding a tracking target in a frame corresponding to the first frame number. As an index indicating how large the size of the tracking object is in the frame, it may be expressed in units of pixels. For example, if the overall resolution of the frame is 640*480 pixels, the gate size may be 40*30. The gate size is flexible depending on the size of the frame to be tracked. The coordinate of the gate (coordinate of gate) refers to the coordinates of the center point of the tracking target when the tracking target is specified in the frame corresponding to the first frame number. In the frame for the first frame number, the gate coordinate is an index indicating where the tracking target is specifically, and may be expressed as a 2D coordinate value.

프레임검색부(233)는 제1프레임번호가 현재시점에 대한 제2프레임번호보다 더 앞선 시점의 프레임의 번호라면, 영상버퍼에서 제1프레임번호에 대한 영상프레임을 검색한다. 여기서, 영상버퍼는 영상추적시스템(230)에 포함되어 있는 기억장치로서, 특정시간동안 EO-IR장비에 의해 촬영된 원시영상데이터를 시간적 순서에 따라서 저장하고 있다. 영상버퍼는 플래시 메모리(flash memory)처럼 비휘발성 메모리로 구성될 수 있을 뿐만 아니라, 더 빠른 데이터 입출력(I/O)속도를 확보하기 위해서 통전시에만 한시적으로 데이터를 저장하거나 일정주기로 리셋되는 휘발성 메모리로 구성될 수도 있다. 제1프레임정보는 EO-IR장비가 원시영상데이터를 생성할 때에 함께 생성되는 고유한 메타데이터로서, 프레임검색부(233)가 제1프레임정보와의 일치여부를 통해서 영상버퍼에 저장된 원시영상데이터를 검색하는 데에 이용될 수 있다.If the first frame number is the number of a frame at a point earlier than the second frame number for the current time, the frame search unit 233 searches the video frame for the first frame number in the image buffer. Here, the image buffer is a storage device included in the image tracking system 230, and stores raw image data photographed by the EO-IR equipment for a specific time in a temporal order. The image buffer can be composed of a non-volatile memory such as a flash memory, as well as a volatile memory that temporarily stores data or resets it at regular intervals in order to secure faster data input/output (I/O) speed. It may be composed of. The first frame information is unique metadata that is generated when the EO-IR device generates raw image data, and the frame search unit 233 matches the first frame information with raw image data stored in the image buffer. It can be used to search for.

일 예로서, 프레임검색부(233)는 제1프레임번호가 1000이고, 현재시점에 대한 제2프레임번호가 1100이라면, 제1프레임번호가 제2프레임번호보다 더 앞선 시점의 프레임의 번호로 간주하여, 영상버퍼에서 제1프레임번호에 대한 영상프레임을 검색할 수 있다. 다른 일 예로서, 프레임검색부(233)는 제1프레임번호가 없거나, 제1프레임번호가 1100이고, 제2프레임번호도 1100이라면, 지상통제장치(30)로부터 수신된 추적대상이 없는 것으로 간주하고, 영상버퍼에서 제1프레임번호에 대한 영상프레임을 검색하지 않는다. 일단, 프레임검색부(233)는 제1프레임번호가 없거나, 제1프레임번호가 제2프레임번호와 일치하는 경우를 제외하고, 영상버퍼에서 제1프레임번호에 해당하는 영상프레임을 검색할 수 있게 된다.As an example, if the first frame number is 1000 and the second frame number for the current time is 1100, the frame search unit 233 considers the first frame number to be the number of the frame at a time before the second frame number. By doing so, it is possible to search the image frame for the first frame number in the image buffer. As another example, if there is no first frame number, or if the first frame number is 1100 and the second frame number is 1100, the frame search unit 233 is considered to have no tracking object received from the ground control device 30. Then, the image frame for the first frame number is not searched in the image buffer. First, the frame search unit 233 can search the video frame corresponding to the first frame number in the image buffer, except when the first frame number does not exist or the first frame number matches the second frame number. do.

알고리즘선택부(235)는 제1프레임번호 및 제2프레임번호의 차이를 기초로 하여, 복수의 추적알고리즘 중 어느 하나를 선택할 수 있다. 예를 들어, 제1프레임번호가 1000, 제2프레임번호가 1100이라면, 제1프레임번호 및 제2프레임번호의 차이가 100이 되며, 알고리즘선택부(235)는 100이라는 프레임번호의 차이를 기초로 하여, 미리 저장하고 있던 추적알고리즘 중 어느 하나를 선택하게 된다. 다른 예로서, 제1프레임의 번호가 1000, 제2프레임의 번호가 10000이라면, 제1프레임번호 및 제2프레임번호의 차이가 9000이 되며, 알고리즘선택부(235)는 9000이라는 프레임번호의 차이를 기초로 하여, 미리 저장하고 있던 추적알고리즘 중 어느 하나를 선택할 수 있다. 전술한 두 가지 예에서, 프레임번호의 차이가 100인 경우는, 추적대상이 현재시점으로부터 얼마 전의 시점에 촬영된 프레임에 찍혀있다는 것을 의미하고, 프레임번호의 차이가 9000인 경우는, 전술한 예에 비해서, 추적대상이 현재시점으로부터 오래된 시점에 촬영된 프레임에 찍혀있다는 것을 의미한다.The algorithm selection unit 235 may select any one of a plurality of tracking algorithms based on the difference between the first frame number and the second frame number. For example, if the first frame number is 1000 and the second frame number is 1100, the difference between the first frame number and the second frame number is 100, and the algorithm selection unit 235 is based on the difference between the frame numbers of 100. Then, any one of the tracking algorithms previously stored is selected. As another example, if the number of the first frame is 1000 and the number of the second frame is 10000, the difference between the first frame number and the second frame number is 9000, and the algorithm selection unit 235 is the difference between the frame numbers of 9000. On the basis of, it is possible to select any one of the tracking algorithms previously stored. In the above-mentioned two examples, when the difference between the frame numbers is 100, it means that the tracking object is stamped on the frame taken some time ago from the current time, and when the difference between the frame numbers is 9000, the above-described example Compared to this, it means that the object to be traced is stamped on a frame photographed from an old point of time.

여기서, 추적알고리즘은 추적 스텝(step)을 포함하는 넓은 개념이다. 즉, 알고리즘선택부(235)는 제1프레임번호 또는 제2프레임번호의 영상의 상태(표적의 밝기, 배경의 밀도 등)에 따라서, 여러 가지 추적알고리즘 중 어느 하나의 알고리즘이 결정하고 나면, 그 결정된 알고리즘 내에서 100프레임단위의 추적 스텝 또는 1000프레임단위의 추적 스텝 등의 다양한 추적 스텝이 결정된다. 전술한 것과 같이, 추적 스텝의 절대값은 제1프레임번호 및 제2프레임번호의 차이에 의한다.Here, the tracking algorithm is a broad concept including a tracking step. That is, the algorithm selection unit 235, according to the state of the image of the first frame number or the second frame number (target brightness, background density, etc.), according to any one of the various tracking algorithms, the algorithm is determined, Within the determined algorithm, various tracking steps, such as tracking steps in units of 100 frames or tracking steps in units of 1000 frames, are determined. As described above, the absolute value of the tracking step is based on the difference between the first frame number and the second frame number.

영상추적부(237)는 알고리즘선택부(235)에 의해 선택된 추적알고리즘에 결정된 추적속도에 따라 제1프레임번호의 영상프레임부터 제2프레임번호의 영상프레임에 도달할 때까지, 게이트크기, 게이트좌표에 대한 표적의 움직임을 추적한다. 영상추적부(237)는 제1프레임번호에 대한 영상프레임이 프레임검색부(233)에 의해 검색되고, 게이트크기 및 게이트좌표에 의해서 추적대상이 특정되면, 그 추적대상이 시간의 흐름에 따라서 프레임내에서 크기와 위치가 달라지는지를 추적알고리즘에 정의되어 있는 고유한 추적속도에 따라 추적하여, 현재시점의 추적대상이 EO-IR장비로부터 촬영되는 영상에 포함되어 있는지 파악할 수 있다. 예를 들어, t-100가 제1프레임번호라고 가정하면, 영상추적부(237)는 t-100에서의 게이트크기 및 게이트좌표에 따라서, 추적대상이 특정되고 나서, 알고리즘선택부(235)가 선택한 추적알고리즘에 따라서, t-100, t-98, t-96, t-94, ... t(현재 시점)까지 추적대상을 추적할 수 있다. 위의 예에서, 추적알고리즘에 정의된 추적속도는 2프레임/추적횟수라고 볼 수 있다. 추적속도는 전술한 2프레임/추적횟수 외에도 1프레임/추적횟수, 3프레임/추적횟수이 될 수도 있으며, 추적속도는 추적알고리즘의 효율성 및 추적대상의 포착실패율을 종합적으로 고려하여, 수학적, 경험적, 실험적으로 결정될 수 있다.The image tracking unit 237, from the image frame of the first frame number to the image frame of the second frame number according to the tracking speed determined by the tracking algorithm selected by the algorithm selection unit 235, gate size, gate coordinates Track the movement of the target against. In the image tracking unit 237, when the image frame for the first frame number is searched by the frame search unit 233, and the tracking target is specified by the gate size and the gate coordinate, the tracking target is framed according to the passage of time. It is possible to determine whether the size and position of the change within the tracking speed according to the unique tracking speed defined in the tracking algorithm is included in the image captured from the EO-IR device. For example, assuming that t-100 is the first frame number, the image tracking unit 237 determines the tracking target according to the gate size and the gate coordinate in t-100, and then the algorithm selector 235 Depending on the selected tracking algorithm, the tracking target can be tracked to t-100, t-98, t-96, t-94, ... t (current time). In the above example, it can be seen that the tracking speed defined in the tracking algorithm is 2 frames/tracking. The tracking speed may be 1 frame/tracking number, 3 frames/tracking number, in addition to the above-described 2 frames/tracking number, and the tracking speed may be considered mathematically, empirically, and experimentally by comprehensively considering the efficiency of the tracking algorithm and the capture failure rate of the tracking target. It can be determined by.

본 발명에서는, 1차적으로는 지상통제장치(30)로부터 수신한 영상추적정보에 따라서, 과거의 영상데이터로부터 게이트크기 및 게이트좌표에 해당하는 추적대상이 찍혀있는 영상프레임을 검색하고, 과거시점의 영상프레임이 검색되고 나면, 그 과거시점으로부터 현재시점까지의 시간적인 텀(term)을 고려하여, 추적대상이 순차적으로 어떻게 변해왔는지 추적하는 것을 반복하여, 현재시점(현재 프레임)에서의 추적대상이 어떠한 게이트크기에 어떠한 게이트좌표에 위치하고 있는지 정확하게 추적할 수 있게 되어, 지상통제장치의 추적명령으로 인해 1차적으로 포착된 추적대상을 그 이후의 시점에도 놓치지 않게 되는 효과를 기대할 수 있다. 특히, 알고리즘선택부(235)가 제1프레임번호와 제2프레임번호와의 차이를 통해서, 적절한 추적속도를 갖는 알고리즘을 선택함으로써, 과거시점으로부터 현재시점까지 추적대상을 놓치지 않으면서도 적절하게 빠른 속도로 도달할 수 있게 된다.In the present invention, first, in accordance with the image tracking information received from the ground control device 30, the image frame in which the tracking object corresponding to the gate size and the gate coordinates is taken is searched from the past image data, and the After the video frame is searched, the tracking target at the current time (current frame) is repeated by repeatedly tracking how the tracking target has been changed sequentially, taking into account the temporal term from the past time point to the current time point. It is possible to accurately track which gate size is located at which gate coordinate, and it is possible to expect an effect of not missing the tracking object primarily captured by the tracking command of the ground control device at a later time. In particular, the algorithm selection unit 235 selects an algorithm having an appropriate tracking speed through the difference between the first frame number and the second frame number, so that an appropriately fast speed is obtained without missing a tracking target from a past time point to a current time point. Can reach.

선택적 일 실시 예로서, 알고리즘선택부(235)는 제1추적속도를 갖는 제1추적알고리즘 및 제2추적속도를 갖는 제2추적알고리즘 중 어느 하나를 선택할 수 있고, 여기서, 제2추적속도에 대한 제1추적속도의 비율이 기설정된 속도비율일 수 있다.As an optional embodiment, the algorithm selection unit 235 may select any one of a first tracking algorithm having a first tracking speed and a second tracking algorithm having a second tracking speed, where The ratio of the first tracking speed may be a preset speed ratio.

Figure pat00001
Figure pat00001

수학식 1에서, vt1은 제1추적속도, vt2는 제2추적속도, Rtrack은 제2추적속도에 대한 제1추적속도의 비율을 의미한다. 알고리즘선택부(235)는 제1추적속도와 제2추적속도의 비율을 기설정된 속도비율로 설정해놓을 수 있다. 본 선택적 일 실시 예에 따르면, 제1추적속도 및 제2추적속도의 속도비율을 미리 특정한 비율값으로 정해놓음으로써, 추적알고리즘의 효율이나 예측가능성을 확보할 수 있으며, 추적대상에 대한 추적에 실패할 경우, 추적속도를 조정하거나, 추적실패의 원인을 복기하는 것이 용이해지는 효과를 기대할 수 있다.In Equation 1, vt1 is the first tracking speed, vt2 is the second tracking speed, and Rtrack is the ratio of the first tracking speed to the second tracking speed. The algorithm selection unit 235 may set the ratio of the first tracking speed and the second tracking speed to a preset speed ratio. According to this exemplary embodiment, by setting the speed ratios of the first tracking speed and the second tracking speed to a specific ratio value in advance, it is possible to secure the efficiency or predictability of the tracking algorithm and fail to track the tracking target If you do, you can expect the effect of making it easier to adjust the tracking speed or to recover the cause of the tracking failure.

도 3은 EO-IR장비로부터 생성된 원시영상데이터 및 메타데이터가 영상압축시스템에 의해 압축되는 과정을 도식적으로 나타낸 도면이다.3 is a diagram schematically showing a process in which raw image data and metadata generated from EO-IR equipment are compressed by an image compression system.

설명의 편의를 위해서, 도 3은 도 1 및 도 2를 참조하여 설명하기로 한다.For convenience of description, FIG. 3 will be described with reference to FIGS. 1 and 2.

원시영상데이터는 IPA모듈(17)에서 프레임별로 분리되며, 이 과정에서 프레임번호에 대한 메타데이터도 별도로 분리되어 관리된다. IPA모듈(17)은 원시영상데이터를 각각의 프레임별로 CTA모듈(19)의 프레임버퍼에 전달하며, CTA모듈(19)의 프레임버퍼의 수는 원시영상데이터의 프레임의 수와 동일하게 설정된다. 도 3에 도시된 바와 같이 프레임버퍼는 프레임의 수와 동일한 VDMA 버퍼를 갖는 FPGA모듈(Field Programmable Gate Array Module)로 구현될 수 있다. 프레임번호에 대한 메타데이터는 VDMA버퍼가 아닌 FPGA모듈의 SPI버퍼에 전달된다.The raw image data is separated for each frame in the IPA module 17. In this process, the metadata for the frame number is also separately managed. The IPA module 17 transfers the raw image data to the frame buffer of the CTA module 19 for each frame, and the number of frame buffers of the CTA module 19 is set equal to the number of frames of the raw image data. As shown in FIG. 3, the frame buffer may be implemented as an FPGA module (Field Programmable Gate Array Module) having a VDMA buffer equal to the number of frames. Metadata about the frame number is transferred to the SPI buffer of the FPGA module, not the VDMA buffer.

FPGA모듈은 도 2에서의 GPIO신호송신부(215)를 포함할 수 있다. GPIO신호는 다용도 입출력 포트 신호로서, 본 발명에서, 압축된 영상과 프레임번호를 동기화시키기 위한 신호로 기능한다. FPGA모듈에서 DSP모듈로 영상데이터가 전송될 때, GPIO신호송신부(215)는 GPIO신호를 발생시켜서, SPI 버퍼에 분리저장되어 있는 메타데이터(프레임번호 등)가 ARM모듈로 전송되도록 한다. 구체적으로 GPIO신호송신부(215)는 SPI 리딩신호(Reading Signal)을 DSP모듈로 송신하여, SPI 버퍼에 저장되어 있던 영상데이터의 메타정보가 ARM모듈의 데이터버퍼큐(Data Buffer Queue)에 누적되도록 제어하게 되고, 데이터버퍼큐에 누적된 메타데이터는 압축된 영상과 ARM모듈에서 동기화되어, SSD장치로 전달된다. 이 과정에서, VDMA 버퍼에 프레임별로 나누어서 저장되어 있는 영상데이터는 H.264와 같은 범용 인코더에 의해 압축된 후, 데이터버퍼큐의 메타정보와 동기화된다. 위와 같이 CTA모듈(19)이 FPGA모듈, DSP모듈, ARM모듈로 데이터를 나누어서 처리하는 것은 DSP모듈의 느린 외부 버스 속도와 같이, 각 데이터를 처리하는 데에 있어서 효율성을 극대화하기 위함이다.The FPGA module may include a GPIO signal transmitter 215 in FIG. 2. The GPIO signal is a multi-purpose input/output port signal, and in the present invention, functions as a signal for synchronizing a compressed image and a frame number. When the image data is transmitted from the FPGA module to the DSP module, the GPIO signal transmitter 215 generates a GPIO signal so that metadata (frame numbers, etc.) separately stored in the SPI buffer is transmitted to the ARM module. Specifically, the GPIO signal transmitter 215 transmits the SPI reading signal to the DSP module, so that meta information of the image data stored in the SPI buffer is accumulated in the data buffer queue of the ARM module. The metadata accumulated in the data buffer queue is synchronized from the compressed image and the ARM module and transferred to the SSD device. In this process, the video data divided and stored in frames in the VDMA buffer is compressed by a general-purpose encoder such as H.264, and then synchronized with the meta information of the data buffer queue. As described above, the CTA module 19 divides and processes data into an FPGA module, a DSP module, and an ARM module to maximize efficiency in processing each data, such as a slow external bus speed of the DSP module.

도 4는 지상통제장치를 통한 영상추적명령 전송 플로우의 일 예를 도식적으로 나타낸 도면이다.4 is a diagram schematically showing an example of an image tracking command transmission flow through the ground control device.

도 4를 참조하면, 사용자(User)는 지상통제장치(30)의 영상재생장치를 통해서, 추적대상을 포함하는 프레임을 특정하여, 영상추적명령을 내릴 수 있고, 사용자가 내린 영상추적명령은 지상통제장치(30)를 통해서 무인기데이터링크모듈(20)에 의해 EO-IR장비(10)에 도달하여, 일련의 과정을 통해서 EO-IR장비(10)가 추적대상에 대한 영상추적을 수행하도록 한다. 전술한 것과 같이, 영상추적명령에는 프레임번호, 게이트크기, 게이트좌표(location of gate)에 대한 정보가 포함되며, EO-IR장비(10)는 프레임번호를 전술한 제1프레임번호로 간주하고, 게이트크기 및 게이트좌표를 통해서, 영상버퍼에 저장되어 있는 과거 시점의 프레임에서 영상추적명령에 대응되는 추적대상을 판별하고, 현재 프레임까지 설정된 추적속도에 따라 추적하게 된다. 즉, 영상추적시스템(230)은 제1프레임번호부터 수신된 표적의 위치(게이트좌표)와 크기(게이트크기)로 내부(영상버퍼)에서 추적을 시작하고, 내부에서 추적중인 프레임번호가 촬영중인 현재 프레임번호에 도달했을 때, 정상 추적 상태로 추적 결과를 도시하기 시작한다. EO-IR장비(10)에 포함되어 있는 영상추적시스템(230)이 영상을 추적하는 과정에 대해서는 도 2를 통해 상세히 설명한 바 있으므로, 생략하기로 한다.Referring to FIG. 4, a user may issue a video tracking command through a video playback device of the ground control device 30 by specifying a frame including a tracking target, and the video tracking command issued by the user is ground. The EO-IR device 10 is reached by the unmanned data link module 20 through the control device 30 so that the EO-IR device 10 performs image tracking for the tracking object through a series of processes. . As described above, the image tracking command includes information on the frame number, gate size, and location of gate, and the EO-IR device 10 regards the frame number as the aforementioned first frame number, Through the gate size and the gate coordinates, a tracking target corresponding to an image tracking command is determined from a frame of a past view stored in the image buffer, and tracking is performed according to a tracking speed set up to the current frame. That is, the image tracking system 230 starts tracking internally (image buffer) with the position (gate coordinate) and size (gate size) of the target received from the first frame number, and the frame number being tracked from the inside is being recorded. When the current frame number is reached, tracking results are started to be displayed in a normal tracking state. The process of tracking the image by the image tracking system 230 included in the EO-IR equipment 10 has been described in detail with reference to FIG. 2 and will be omitted.

도 5는 영상압축시스템이 원시영상데이터를 압축하여 지상통제장치로 송신하는 과정을 흐름도로 나타낸 도면이다.FIG. 5 is a flowchart illustrating a process in which the image compression system compresses the raw image data and transmits it to the ground control device.

도 5는 도 2의 영상압축시스템(210)에 의해서 구현될 수 있으므로, 도 2를 참조하여 설명하기로 하고, 이하에서는, 도 2에서 설명한 내용과 중복된 설명은 생략하기로 한다.5 may be implemented by the image compression system 210 of FIG. 2, it will be described with reference to FIG. 2, and descriptions overlapping with those described in FIG. 2 will be omitted below.

먼저, 영상데이터수신부(211)는 원시영상데이터 및 프레임번호를 수신한다(S510).First, the image data receiving unit 211 receives raw image data and a frame number (S510).

이어서, 영상버퍼저장부(212)는 수신된 원시영상데이터를 프레임별로 분리하고, 프레임별로 구비된 프레임버퍼에 각각 저장한다(S520).Subsequently, the image buffer storage unit 212 separates the received raw image data for each frame, and stores each in the frame buffer provided for each frame (S520).

번호버퍼저장부(213)는 수신된 프레임번호를 번호버퍼에 저장한다(S530).The number buffer storage unit 213 stores the received frame number in the number buffer (S530).

영상압축부(214)는 프레임버퍼에 저장된 원시영상데이터를 수신하여, 일괄적으로 압축한다(S540).The image compression unit 214 receives the raw image data stored in the frame buffer, and compresses it collectively (S540).

동기화처리부(216)는 번호버퍼에 저장된 프레임번호를 압축된 영상의 프레임별로 동기화시킨다(S550). 단계 S550에 앞서, GPIO신호송신부(215)는 프레임버퍼에 저장된 원시영상데이터의 프레임들을 영상압축부(214)로 송신하기 전에, 다용도입출력포트신호(GPIO신호)를 번호버퍼에 송신할 수도 있다는 것을 도 3을 통해 이미 설명한 바 있다.The synchronization processing unit 216 synchronizes the frame number stored in the number buffer for each frame of the compressed image (S550). Prior to step S550, the GPIO signal transmission unit 215 may transmit a multipurpose input/output port signal (GPIO signal) to the number buffer before transmitting the frames of the raw image data stored in the frame buffer to the image compression unit 214. It has already been described through FIG. 3.

도 6은 지상통제장치로부터 영상추적명령을 수신한 영상추적시스템이 영상을 추적하는 과정을 흐름도로 나타낸 도면이다.FIG. 6 is a flowchart illustrating a process of tracking an image by an image tracking system that receives an image tracking command from a ground control device.

도 6는 도 2의 영상추적시스템(230)에 의해서 구현될 수 있으므로, 도 2를 참조하여 설명하기로 하고, 이하에서는, 도 2에서 설명한 내용과 중복된 설명은 생략하기로 한다.6 may be implemented by the image tracking system 230 of FIG. 2, it will be described with reference to FIG. 2, and descriptions overlapping with those described in FIG. 2 will be omitted below.

추적정보수신부(231)는 지상통제장비로부터 제1프레임번호, 게이트크기, 게이트좌표를 포함하는 영상추적정보를 수신한다(S610).The tracking information receiving unit 231 receives image tracking information including a first frame number, gate size, and gate coordinates from the ground control equipment (S610).

프레임검색부(233)는 영상추적정보를 기초로 표적이 있는 과거시점의 프레임을 영상버퍼에서 검색한다(S620).The frame search unit 233 searches for a frame of a past view with a target in the image buffer based on the image tracking information (S620).

알고리즘선택부(235)는 제1프레임번호 및 제2프레임번호의 차이를 기초로 하여, 복수의 추적알고리즘 중 어느 하나를 선택할 수 있다(S630). 단계 S630의 선택적 일 실시 예로서, 알고리즘선택부(235)는 빠른 센트로이드(centroid) 추적알고리즘 또는 느린 코릴레이션(correlation) 추적알고리즘 중 어느 하나를 선택할 수도 있다. 센트로이드 추적알고리즘은 빠르게 동작하므로, 숫자로 표현되는 추적속도의 크기는 작은 특성을 갖고, 코릴레이션 추적알고리즘은 느리게 동작하는 특성상 빠르게 현재 프레임으로 추적대상을 추적하기 위해서, 추적속도의 크기 자체는 큰 특성을 갖는다. 예를 들어, 센트로이드 추적알고리즘의 추적속도는 1프레임/추적횟수, 코릴레이션 추적알고리즘의 추적속도는 2프레임/추적횟수만큼 프레임을 건너뛰면서 추적대상을 프레임마다 추적하게 된다.The algorithm selection unit 235 may select any one of a plurality of tracking algorithms based on the difference between the first frame number and the second frame number (S630). As an optional embodiment of step S630, the algorithm selector 235 may select either a fast centroid tracking algorithm or a slow correlation tracking algorithm. Since the centroid tracking algorithm operates quickly, the size of the tracking speed expressed as a number has a small characteristic, and the correlation tracking algorithm is slow to track the target to be tracked with the current frame due to its slow-moving nature. It has characteristics. For example, the tracking speed of the centroid tracking algorithm is 1 frame/tracking, and the tracking speed of the correlation tracking algorithm is 2 frames/tracking.

영상추적부(237)는 단계 S630에서 선택된 추적알고리즘에 의해 결정된 추적속도로 과거시점의 프레임부터 현재시점의 프레임까지 표적의 움직임을 추적한다(S640).The image tracking unit 237 tracks the movement of the target from the frame of the past viewpoint to the frame of the current viewpoint at a tracking speed determined by the tracking algorithm selected in step S630 (S640).

본 발명에 따르면, 지상장비에서의 영상시현시점과 무인항공기의 EO-IR장비의 촬영시점의 차이를 최소화하여, 표적에 대한 초기 성공률을 획기적으로 향상시킬 수 있으며, 무인항공기 등 원격으로 통제되는 플랫폼에 장착된 EO-IR의 임무 성공률을 높여 EO-IR 장비의 활용도를 한층 더 개선시킬 수 있다.According to the present invention, it is possible to dramatically improve the initial success rate for the target by minimizing the difference between the image viewing time on the ground equipment and the shooting time of the EO-IR equipment of the unmanned aerial vehicle, and to a remotely controlled platform such as an unmanned aerial vehicle. By increasing the success rate of the installed EO-IR mission, the utilization of the EO-IR equipment can be further improved.

이상 설명된 본 발명에 따른 실시 예는 컴퓨터상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다.The embodiment according to the present invention described above may be implemented in the form of a computer program that can be executed through various components on a computer, and such a computer program can be recorded on a computer-readable medium. At this time, the medium includes a hard disk, a magnetic medium such as a floppy disk and magnetic tape, an optical recording medium such as CD-ROM and DVD, a magneto-optical medium such as a floptical disk, and a ROM. , Hardware devices specially configured to store and execute program instructions, such as RAM, flash memory, and the like.

한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be specially designed and configured for the present invention, or may be known and available to those skilled in the computer software field. Examples of computer programs may include not only machine language codes produced by a compiler, but also high-level language codes executable by a computer using an interpreter or the like.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific implementations described in the present invention are exemplary embodiments, and do not limit the scope of the present invention in any way. For brevity of the specification, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of the lines between the components shown in the drawings are illustrative examples of functional connections and/or physical or circuit connections, and in the actual device, alternative or additional various functional connections, physical Connections, or circuit connections. In addition, unless specifically mentioned, such as “essential”, “importantly”, etc., it may not be a necessary component for application of the present invention.

본 발명의 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 발명에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In the specification (particularly in the claims) of the present invention, the use of the term “above” and similar indication terms may be in both singular and plural. In addition, in the case of describing a range in the present invention, as including the invention to which the individual values belonging to the range are applied (if there is no contrary description), each individual value constituting the range is described in the detailed description of the invention. Same as Finally, unless there is a clear or contradictory description of the steps constituting the method according to the invention, the steps can be done in a suitable order. The present invention is not necessarily limited to the description order of the above steps. The use of all examples or exemplary terms (eg, etc.) in the present invention is merely for describing the present invention in detail, and the scope of the present invention is limited due to the examples or exemplary terms, unless it is defined by the claims. It does not work. In addition, those skilled in the art can recognize that various modifications, combinations, and changes can be configured according to design conditions and factors within the scope of the appended claims or equivalents thereof.

Claims (9)

무인항공기에 탑재되는 전자광학-적외선(EO-IR) 카메라의 영상 처리방법으로서,
영상데이터수신부가 상기 카메라로부터 출력된 원시영상데이터 및 상기 원시영상데이터를 구성하는 프레임들의 프레임번호를 수신하는 영상데이터수신단계;
영상버퍼저장부가 상기 수신된 원시영상데이터를 프레임별로 분리하고, 프레임별로 구비된 프레임버퍼에 각각 저장하는 영상버퍼저장단계;
번호버퍼저장부가 상기 수신된 프레임번호를 번호버퍼에 저장하는 번호버퍼저장단계;
영상압축부가 상기 프레임버퍼에 저장된 원시영상데이터를 수신하여 일괄적으로 압축하는 영상압축단계; 및
동기화처리부가 상기 번호버퍼에 저장된 프레임번호를 상기 압축된 영상의 프레임별로 동기화시키는 동기화처리단계;를 포함하는 무인항공기에 탑재되는 전자광학-적외선(EO-IR) 카메라의 영상 처리방법.
As an image processing method of an electro-optical-infrared (EO-IR) camera mounted on an unmanned aerial vehicle,
An image data receiving step of receiving the raw image data output from the camera and the frame numbers of the frames constituting the raw image data;
An image buffer storage step in which the image buffer storage unit separates the received raw image data for each frame, and stores each of the received raw image data in a frame buffer provided for each frame;
A number buffer storage step in which the number buffer storage unit stores the received frame number in a number buffer;
An image compression step in which the image compression unit receives the raw image data stored in the frame buffer and collectively compresses it; And
Synchronization processing step of synchronizing the frame number stored in the number buffer by the synchronization processing unit for each frame of the compressed image; A method for processing an image of an electro-optical-infrared (EO-IR) camera mounted in an unmanned aerial vehicle.
제1항에 있어서,
상기 처리방법은,
상기 프레임버퍼에 저장된 원시영상데이터의 프레임들을 상기 영상압축부로 송신하기 전에, 다용도 입출력 포트(GPIO) 신호를 상기 번호버퍼에 송신하는 것을 특징으로 하는 GPIO신호송신단계를 더 포함하는 무인항공기에 탑재되는 전자광학-적외선(EO-IR) 카메라의 영상 처리방법.
According to claim 1,
The treatment method,
The GPIO signal transmission step further comprises transmitting a multipurpose input/output port (GPIO) signal to the number buffer before transmitting the frames of the raw image data stored in the frame buffer to the image compression unit. Electro-optical-infrared (EO-IR) camera image processing method.
무인항공기에 탑재되는 전자광학-적외선 카메라의 영상 추적방법으로서,
지상장비로부터 제1프레임번호, 게이트크기, 게이트좌표를 포함하는 영상추적정보를 수신하는 추적정보수신단계;
상기 수신된 제1프레임번호가 현재시점에 대한 제2프레임번호보다 더 앞선 시점의 프레임의 번호라면, 영상버퍼에서 상기 제1프레임번호에 대한 영상프레임을 검색하는 프레임검색단계;
상기 제1프레임번호 및 상기 제2프레임번호의 차이를 기초로 하여 복수의 추적알고리즘 중 어느 하나를 선택하는 알고리즘선택단계; 및
상기 선택된 추적알고리즘에 결정된 추적속도에 따라 상기 제1프레임번호의 영상프레임부터 상기 제2프레임번호의 영상프레임에 도달할 때까지 상기 게이트크기, 상기 게이트좌표에 대한 표적의 움직임을 추적하는 영상추적단계를 포함하는 무인항공기에 탑재되는 전자광학-적외선(EO-IR) 카메라의 영상추적방법.
As an image tracking method of an electro-optical-infrared camera mounted on an unmanned aerial vehicle,
A tracking information receiving step of receiving image tracking information including a first frame number, gate size, and gate coordinates from the ground equipment;
A frame search step of searching for a video frame for the first frame number in an image buffer if the received first frame number is a number of a frame at a point earlier than the second frame number for the current time;
An algorithm selection step of selecting any one of a plurality of tracking algorithms based on the difference between the first frame number and the second frame number; And
An image tracking step of tracking the movement of the target with respect to the gate size and the gate coordinates from the video frame of the first frame number to the video frame of the second frame number according to the tracking speed determined by the selected tracking algorithm. Image tracking method of an electro-optical-infrared (EO-IR) camera mounted on an unmanned aerial vehicle comprising a.
제3항에 있어서,
상기 알고리즘선택단계는,
제1추적속도를 갖는 제1추적알고리즘 및 제2추적속도를 갖는 제2추적알고리즘 중 어느 하나를 선택하고,
상기 제2추적속도에 대한 상기 제1추적속도의 비율은 기설정된 속도비율인 것을 특징으로 하는 무인항공기에 탑재되는 전자광학-적외선(EO-IR) 카메라의 영상추적방법.
According to claim 3,
The algorithm selection step,
Selecting one of a first tracking algorithm having a first tracking speed and a second tracking algorithm having a second tracking speed,
The ratio of the first tracking speed to the second tracking speed is a predetermined speed ratio, characterized in that the electronic optical-infrared (EO-IR) camera image tracking method mounted on an unmanned aerial vehicle.
제1항 내지 제4항 중 어느 한 항에 따른 방법을 실행시키기 위한 프로그램을 저장하고 있는 컴퓨터 판독가능한 기록매체.A computer-readable recording medium storing a program for executing the method according to any one of claims 1 to 4. 무인항공기에 탑재되는 전자광학-적외선(EO-IR) 카메라의 영상 처리시스템으로서,
상기 카메라로부터 출력된 원시영상데이터 및 상기 원시영상데이터를 구성하는 프레임들의 프레임번호를 수신하는 영상데이터수신부;
영상버퍼저장부가 상기 수신된 원시영상데이터를 프레임별로 분리하고, 프레임별로 구비된 프레임버퍼에 각각 저장하는 영상버퍼저장부;
번호버퍼저장부가 상기 수신된 프레임번호를 번호버퍼에 저장하는 번호버퍼저장부;
영상압축부가 상기 프레임버퍼에 저장된 원시영상데이터를 수신하여 일괄적으로 압축하는 영상압축부; 및
동기화처리부가 상기 번호버퍼에 저장된 프레임번호를 상기 압축된 영상의 프레임별로 동기화시키는 동기화처리부;를 포함하는 무인항공기에 탑재되는 전자광학-적외선(EO-IR) 카메라의 영상 처리시스템.
An image processing system of an EO-IR camera mounted on an unmanned aerial vehicle,
An image data receiving unit that receives the raw image data output from the camera and frame numbers of frames constituting the raw image data;
An image buffer storage unit for separating the received raw image data for each frame and storing each of the received raw image data in a frame buffer provided for each frame;
A number buffer storage unit for storing the received frame number in the number buffer;
An image compression unit for receiving the raw image data stored in the frame buffer and compressing it in a batch; And
Synchronization processing unit for synchronizing the frame number stored in the number buffer frame by frame of the compressed image; an image processing system of an electro-optical-infrared (EO-IR) camera mounted in an unmanned aerial vehicle comprising a.
제6항에 있어서,
상기 처리시스템은,
상기 프레임버퍼에 저장된 원시영상데이터의 프레임들을 상기 영상압축부로 송신하기 전에, 다용도 입출력 포트(GPIO) 신호를 상기 번호버퍼에 송신하는 것을 특징으로 하는 GPIO신호송신부를 더 포함하는 무인항공기에 탑재되는 전자광학-적외선(EO-IR) 카메라의 영상 처리시스템.
The method of claim 6,
The processing system,
An electronic device mounted on an unmanned aerial vehicle further comprising a GPIO signal transmitting unit, characterized in that a frame of the raw image data stored in the frame buffer is transmitted to the number buffer by sending a multipurpose input/output port (GPIO) signal to the image compression unit. Optical-infrared (EO-IR) camera image processing system.
무인항공기에 탑재되는 전자광학-적외선 카메라의 영상 처리시스템으로서,
지상장비로부터 제1프레임번호, 게이트크기, 게이트좌표를 포함하는 영상추적정보를 수신하는 추적정보수신부;
상기 수신된 제1프레임번호가 현재시점에 대한 제2프레임번호보다 더 앞선 시점의 프레임의 번호라면, 영상버퍼에서 상기 제1프레임번호에 대한 영상프레임을 검색하는 프레임검색부;
상기 제1프레임번호 및 상기 제2프레임번호의 차이를 기초로 하여 복수의 추적알고리즘 중 어느 하나를 선택하는 알고리즘선택부; 및
상기 선택된 추적알고리즘에 결정된 추적속도에 따라 상기 제1프레임번호의 영상프레임부터 상기 제2프레임번호의 영상프레임에 도달할 때까지 상기 게이트크기, 상기 게이트좌표에 대한 표적의 움직임을 추적하는 영상추적부를 포함하는 무인항공기에 탑재되는 전자광학-적외선(EO-IR) 카메라의 영상추적시스템.
As an image processing system of an electro-optical-infrared camera mounted on an unmanned aerial vehicle,
A tracking information receiver that receives image tracking information including a first frame number, gate size, and gate coordinates from ground equipment;
A frame search unit for searching the video frame for the first frame number in an image buffer if the received first frame number is a frame number at a point earlier than the second frame number for the current time;
An algorithm selection unit selecting any one of a plurality of tracking algorithms based on the difference between the first frame number and the second frame number; And
Depending on the tracking speed determined by the selected tracking algorithm, the image tracking unit tracks the movement of the target with respect to the gate size and the gate coordinates from the video frame of the first frame number to the video frame of the second frame number. An image tracking system of an electro-optical-infrared (EO-IR) camera mounted on an unmanned aerial vehicle.
제8항에 있어서,
상기 알고리즘선택부는,
제1추적속도를 갖는 제1추적알고리즘 및 제2추적속도를 갖는 제2추적알고리즘 중 어느 하나를 선택하고,
상기 제2추적속도에 대한 상기 제1추적속도의 비율은 기설정된 속도비율인 것을 특징으로 하는 무인항공기에 탑재되는 전자광학-적외선(EO-IR) 카메라의 영상처리시스템.
The method of claim 8,
The algorithm selection unit,
Selecting one of a first tracking algorithm having a first tracking speed and a second tracking algorithm having a second tracking speed,
The ratio of the first tracking speed to the second tracking speed is an image processing system of an electro-optical-infrared (EO-IR) camera mounted in an unmanned aerial vehicle, characterized in that a predetermined speed ratio.
KR1020180173076A 2018-12-28 2018-12-28 Method for compensating delayed video data from EO-IR camera installed in unmanned aerial vehicle and system thereof KR102163697B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180173076A KR102163697B1 (en) 2018-12-28 2018-12-28 Method for compensating delayed video data from EO-IR camera installed in unmanned aerial vehicle and system thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180173076A KR102163697B1 (en) 2018-12-28 2018-12-28 Method for compensating delayed video data from EO-IR camera installed in unmanned aerial vehicle and system thereof

Publications (2)

Publication Number Publication Date
KR20200082466A true KR20200082466A (en) 2020-07-08
KR102163697B1 KR102163697B1 (en) 2020-10-08

Family

ID=71600558

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180173076A KR102163697B1 (en) 2018-12-28 2018-12-28 Method for compensating delayed video data from EO-IR camera installed in unmanned aerial vehicle and system thereof

Country Status (1)

Country Link
KR (1) KR102163697B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102328151B1 (en) * 2021-08-11 2021-11-17 한화시스템(주) Data transmission device and method for zero latency
KR20220013533A (en) 2020-07-26 2022-02-04 안희태 Role-sharing device for low discharge rate batteries and high discharge rate batteries

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004023541A (en) * 2002-06-18 2004-01-22 Sanyo Electric Co Ltd Frame deviation detecting apparatus
JP2008219070A (en) * 2007-02-28 2008-09-18 Nec Corp Video encoding system, method and program
KR100954500B1 (en) * 2009-05-14 2010-04-22 한국항공우주산업 주식회사 Control system for unmanned aerial vehicle
KR20110113948A (en) 2010-04-12 2011-10-19 전남대학교산학협력단 Method for object tracking based on mean-shift algorithm modified using update of object set
JP2012222653A (en) * 2011-04-11 2012-11-12 Nippon Telegr & Teleph Corp <Ntt> Video playback device, video playback method, and video playback program
KR101394164B1 (en) 2013-01-17 2014-05-16 국방과학연구소 High-accuracy video tracking method with super-resolution for video tracker, and high-accuracy video tracking apparatus by using the same
KR101837407B1 (en) 2017-11-03 2018-03-12 국방과학연구소 Apparatus and method for image-based target tracking

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004023541A (en) * 2002-06-18 2004-01-22 Sanyo Electric Co Ltd Frame deviation detecting apparatus
JP2008219070A (en) * 2007-02-28 2008-09-18 Nec Corp Video encoding system, method and program
KR100954500B1 (en) * 2009-05-14 2010-04-22 한국항공우주산업 주식회사 Control system for unmanned aerial vehicle
KR20110113948A (en) 2010-04-12 2011-10-19 전남대학교산학협력단 Method for object tracking based on mean-shift algorithm modified using update of object set
JP2012222653A (en) * 2011-04-11 2012-11-12 Nippon Telegr & Teleph Corp <Ntt> Video playback device, video playback method, and video playback program
KR101394164B1 (en) 2013-01-17 2014-05-16 국방과학연구소 High-accuracy video tracking method with super-resolution for video tracker, and high-accuracy video tracking apparatus by using the same
KR101837407B1 (en) 2017-11-03 2018-03-12 국방과학연구소 Apparatus and method for image-based target tracking

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220013533A (en) 2020-07-26 2022-02-04 안희태 Role-sharing device for low discharge rate batteries and high discharge rate batteries
KR102328151B1 (en) * 2021-08-11 2021-11-17 한화시스템(주) Data transmission device and method for zero latency

Also Published As

Publication number Publication date
KR102163697B1 (en) 2020-10-08

Similar Documents

Publication Publication Date Title
US10075758B2 (en) Synchronizing an augmented reality video stream with a displayed video stream
CN106170096B (en) Multi-angle video editing based on cloud video sharing
US10956749B2 (en) Methods, systems, and media for generating a summarized video with video thumbnails
US9715903B2 (en) Detection of action frames of a video stream
US8014566B2 (en) Image processing apparatus
US9734870B2 (en) Media identifier generation for camera-captured media
US10708673B2 (en) Systems and methods for video processing
CN108028964B (en) Information processing apparatus and information processing method
US20190035091A1 (en) Systems and methods for video processing
US20070222858A1 (en) Monitoring system, monitoring method and program therefor
US20150117831A1 (en) Information processing device, information processing method, and program
KR102163697B1 (en) Method for compensating delayed video data from EO-IR camera installed in unmanned aerial vehicle and system thereof
JP6203188B2 (en) Similar image search device
US10033930B2 (en) Method of reducing a video file size for surveillance
JP4709791B2 (en) Video processing apparatus and video processing method
US20160295064A1 (en) Photo cluster detection and compression
US11252408B2 (en) Image processing apparatus and data receiving apparatus, and methods thereof
CN108985275B (en) Augmented reality equipment and display tracking method and device of electronic equipment
EP3855350A1 (en) Detection of action frames of a video stream
KR101415735B1 (en) Apparatus and method for recording video
CN114268730A (en) Image storage method and device, computer equipment and storage medium
US11202048B2 (en) Video processing device, video processing system, video processing method, and video output device
JP6443144B2 (en) Information output device, information output program, information output method, and information output system
KR20160023160A (en) Method of managing video and audio data
US20200137321A1 (en) Pulsating Image

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right