KR20200082466A - Method for processing and tracking video data from EO-IR camera installed in unmanned aerial vehicle and system thereof - Google Patents
Method for processing and tracking video data from EO-IR camera installed in unmanned aerial vehicle and system thereof Download PDFInfo
- Publication number
- KR20200082466A KR20200082466A KR1020180173076A KR20180173076A KR20200082466A KR 20200082466 A KR20200082466 A KR 20200082466A KR 1020180173076 A KR1020180173076 A KR 1020180173076A KR 20180173076 A KR20180173076 A KR 20180173076A KR 20200082466 A KR20200082466 A KR 20200082466A
- Authority
- KR
- South Korea
- Prior art keywords
- frame
- tracking
- image
- buffer
- image data
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000012545 processing Methods 0.000 title claims abstract description 35
- 239000000872 buffer Substances 0.000 claims abstract description 93
- 238000007906 compression Methods 0.000 claims abstract description 25
- 230000006835 compression Effects 0.000 claims abstract description 24
- 238000003672 processing method Methods 0.000 claims description 5
- 230000008054 signal transmission Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 5
- 230000006854 communication Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/92—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N5/926—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
- H04N5/9261—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation involving data reduction
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
- G03B15/006—Apparatus mounted on flying objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
본 발명은 무인항공기에 탑재되는 전자광학-적외선 카메라의 영상처리방법, 영상추적방법 및 그 시스템에 관한 것으로서, 보다 구체적으로는, 지상장비와 통신하는 무인항공기에 탑재되어 있는 전자광학-적외선 카메라의 영상을 처리하거나 추적하는 방법 및 그 방법을 구현하기 위한 시스템에 관한 것이다.The present invention relates to an image processing method, an image tracking method, and a system thereof of an electro-optical-infrared camera mounted on an unmanned aerial vehicle, and more specifically, an electro-optical-infrared camera mounted on an unmanned aerial vehicle communicating with ground equipment. A method for processing or tracking an image and a system for implementing the method.
무인항공기에 탑재된 전자광학-적외선(EO-IR)장비는 지상장비와 통신을 수행하면서, 각종 명령 및 영상데이터를 송수신한다. 이때, 데이터의 송수신 경로, 무선망 및 지상장비의 상태에 따라 데이터 전송의 지연이 발생할 수 있다. Electro-optical-infrared (EO-IR) equipment mounted on unmanned aerial vehicles transmits and receives various commands and video data while communicating with ground equipment. At this time, a delay in data transmission may occur depending on a data transmission/reception path, a state of a wireless network, and ground equipment.
위와 같은 데이터 전송의 지연의 발생은, 지상장비에 수신된 영상을 시현하는 시점과 무인항공기에 탑재된 EO-IR장비가 영상을 촬영하는 시점의 차이를 필연적으로 유발한다. 특히, EO-IR 장비로 촬영된 표적(target)의 움직임의 속도가 과도하게 빠르거나, 일정 수준을 초과하는 움직임을 보일 경우, 무인항공기가 촬영한 영상이 지상장비에 도달하고 지상장비에 해당 영상에서 표적을 포착하라는 명령이 그 무인항공기에 전달하는 과정에서, 표적이 최초에 포착되었던 지점으로부터 많이 이탈해있게 되어서, 결국 무인항공기의 EO-IR 장비가 최초에 포착한 표적에 대해서 포착상태를 계속 유지하기가 어려워지는, 추적정확도 저하현상이 발생한다.The occurrence of the delay in data transmission as described above inevitably causes a difference between the time when the image received on the ground equipment is displayed and the time when the EO-IR equipment mounted on the unmanned aerial vehicle photographs the image. In particular, when the speed of movement of a target photographed with EO-IR equipment is excessively fast or shows a movement exceeding a certain level, the image taken by the unmanned aerial vehicle reaches the ground equipment and corresponds to the ground equipment. In the course of the command to capture the target from the aircraft to the unmanned aerial vehicle, the target was deviated from the point where it was originally captured, and eventually the unmanned aerial vehicle's EO-IR equipment continued to capture the target. The tracking accuracy decreases, which is difficult to maintain.
본 발명이 해결하고자 하는 기술적 과제는 지상장비에서의 영상시현시점과 무인항공기의 EO-IR장비의 촬영시점의 차이를 최소화하는, 무인항공기에 탑재되는 전자광학-적외선 카메라의 영상처리방법, 영상추적방법 및 그 시스템을 제공하는 데에 있다.The technical problem to be solved by the present invention is to minimize the difference between the image viewing time on the ground equipment and the shooting time of the EO-IR equipment of the unmanned aerial vehicle, the image processing method of the electronic optical-infrared camera mounted on the unmanned aerial vehicle, and the image tracking method And providing the system.
상기 기술적 과제를 해결하기 위한 본 발명의 일 실시 예에 따른 방법은, 무인항공기에 탑재되는 전자광학-적외선(EO-IR) 카메라의 영상 처리방법으로서, 영상데이터수신부가 상기 카메라로부터 출력된 원시영상데이터 및 상기 원시영상데이터를 구성하는 프레임들의 프레임번호를 수신하는 영상데이터수신단계; 영상버퍼저장부가 상기 수신된 원시영상데이터를 프레임별로 분리하고, 프레임별로 구비된 프레임버퍼에 각각 저장하는 영상버퍼저장단계; 번호버퍼저장부가 상기 수신된 프레임번호를 번호버퍼에 저장하는 번호버퍼저장단계; 영상압축부가 상기 프레임버퍼에 저장된 원시영상데이터를 수신하여 일괄적으로 압축하는 영상압축단계; 및 동기화처리부가 상기 번호버퍼에 저장된 프레임번호를 상기 압축된 영상의 프레임별로 동기화시키는 동기화처리단계;를 포함한다.The method according to an embodiment of the present invention for solving the above technical problem is an image processing method of an electro-optical-infrared (EO-IR) camera mounted in an unmanned aerial vehicle, wherein the image data receiving unit outputs the original image from the camera An image data receiving step of receiving frame numbers of data and frames constituting the raw image data; An image buffer storage step in which the image buffer storage unit separates the received raw image data for each frame, and stores each of the received raw image data in a frame buffer provided per frame; A number buffer storage step in which the number buffer storage unit stores the received frame number in a number buffer; An image compression step in which the image compression unit receives the raw image data stored in the frame buffer and collectively compresses it; And a synchronization processing step in which the synchronization processing unit synchronizes the frame numbers stored in the number buffer for each frame of the compressed image.
상기 기술적 과제를 해결하기 위한 본 발명의 다른 일 실시 예에 따른 방법은, 무인항공기에 탑재되는 전자광학-적외선 카메라의 영상 추적방법으로서, 지상장비로부터 제1프레임번호, 게이트크기, 게이트좌표를 포함하는 영상추적정보를 수신하는 추적정보수신단계; 상기 수신된 제1프레임번호가 현재시점에 대한 제2프레임번호보다 더 앞선 시점의 프레임의 번호라면, 영상버퍼에서 상기 제1프레임번호에 대한 영상프레임을 검색하는 프레임검색단계; 상기 제1프레임번호 및 상기 제2프레임번호의 차이를 기초로 하여 복수의 추적알고리즘 중 어느 하나를 선택하는 알고리즘선택단계; 및 상기 선택된 추적알고리즘에 결정된 추적속도에 따라 상기 제1프레임번호의 영상프레임부터 상기 제2프레임번호의 영상프레임에 도달할 때까지 상기 게이트크기, 상기 게이트좌표에 대한 표적의 움직임을 추적하는 영상추적단계를 포함한다.The method according to another embodiment of the present invention for solving the above technical problem is a method for tracking an image of an electro-infrared camera mounted on an unmanned aerial vehicle, and includes a first frame number, gate size, and gate coordinates from ground equipment. Tracking information receiving step of receiving the image tracking information; A frame search step of searching for a video frame for the first frame number in an image buffer if the received first frame number is a number of a frame at a point earlier than the second frame number for the current time; An algorithm selection step of selecting any one of a plurality of tracking algorithms based on the difference between the first frame number and the second frame number; And the image size tracking the movement of the target with respect to the gate size and the gate coordinates from the video frame of the first frame number to the video frame of the second frame number according to the tracking speed determined by the selected tracking algorithm. Steps.
상기 기술적 과제를 해결하기 위한 본 발명의 또 다른 일 실시 예에 따른 시스템은, 무인항공기에 탑재되는 전자광학-적외선(EO-IR) 카메라의 영상 처리시스템으로서, 상기 카메라로부터 출력된 원시영상데이터 및 상기 원시영상데이터를 구성하는 프레임들의 프레임번호를 수신하는 영상데이터수신부;영상버퍼저장부가 상기 수신된 원시영상데이터를 프레임별로 분리하고, 프레임별로 구비된 프레임버퍼에 각각 저장하는 영상버퍼저장부; 번호버퍼저장부가 상기 수신된 프레임번호를 번호버퍼에 저장하는 번호버퍼저장부; 영상압축부가 상기 프레임버퍼에 저장된 원시영상데이터를 수신하여 일괄적으로 압축하는 영상압축부; 및 동기화처리부가 상기 번호버퍼에 저장된 프레임번호를 상기 압축된 영상의 프레임별로 동기화시키는 동기화처리부;를 포함한다.The system according to another embodiment of the present invention for solving the above technical problem is an image processing system of an electro-optical-infrared (EO-IR) camera mounted in an unmanned aerial vehicle, the raw image data output from the camera and An image data receiving unit receiving frame numbers of frames constituting the raw image data; an image buffer storage unit separating the received raw image data into frames, and storing each of the received raw image data in a frame buffer provided for each frame; A number buffer storage unit for storing the received frame number in the number buffer; An image compression unit for receiving the raw image data stored in the frame buffer and compressing it in a batch; And a synchronization processing unit for synchronizing the frame number stored in the number buffer for each frame of the compressed image.
상기 기술적 과제를 해결하기 위한 본 발명의 또 다른 일 실시 예에 따른 시스템은, 무인항공기에 탑재되는 전자광학-적외선 카메라의 영상 처리시스템으로서,지상장비로부터 제1프레임번호, 게이트크기, 게이트좌표를 포함하는 영상추적정보를 수신하는 추적정보수신부; 상기 수신된 제1프레임번호가 현재시점에 대한 제2프레임번호보다 더 앞선 시점의 프레임의 번호라면, 영상버퍼에서 상기 제1프레임번호에 대한 영상프레임을 검색하는 프레임검색부; 상기 제1프레임번호 및 상기 제2프레임번호의 차이를 기초로 하여 복수의 추적알고리즘 중 어느 하나를 선택하는 알고리즘선택부; 및 상기 선택된 추적알고리즘에 결정된 추적속도에 따라 상기 제1프레임번호의 영상프레임부터 상기 제2프레임번호의 영상프레임에 도달할 때까지 상기 게이트크기, 상기 게이트좌표에 대한 표적의 움직임을 추적하는 영상추적부를 포함한다.The system according to another embodiment of the present invention for solving the above technical problem is an image processing system of an electro-optical-infrared camera mounted on an unmanned aerial vehicle, wherein a first frame number, gate size, and gate coordinates are received from ground equipment. Tracking information receiving unit for receiving the image tracking information including; A frame search unit for searching the video frame for the first frame number in an image buffer if the received first frame number is a number of a frame at a point earlier than the second frame number for the current time; An algorithm selection unit selecting any one of a plurality of tracking algorithms based on the difference between the first frame number and the second frame number; And the image size tracking the movement of the target with respect to the gate size and the gate coordinates from the video frame of the first frame number to the video frame of the second frame number according to the tracking speed determined by the selected tracking algorithm. Includes wealth.
본 발명의 일 실시 예는 상기 방법을 구현시키기 위한 프로그램을 저장하고 있는 컴퓨터 판독가능한 기록매체를 제공할 수 있다.One embodiment of the present invention can provide a computer-readable recording medium storing a program for implementing the method.
본 발명에 따르면, 지상장비에서의 영상시현시점과 무인항공기의 EO-IR장비의 촬영시점의 차이를 최소화하여, 표적에 대한 초기 성공률을 획기적으로 향상시킬 수 있으며, 무인항공기 등 원격으로 통제되는 플랫폼에 장착된 EO-IR의 임무 성공률을 높여 EO-IR 장비의 활용도를 한층 더 개선시킬 수 있다.According to the present invention, it is possible to dramatically improve the initial success rate for the target by minimizing the difference between the image viewing time on the ground equipment and the shooting time of the EO-IR equipment of the unmanned aerial vehicle, and to a remotely controlled platform such as an unmanned aerial vehicle. By increasing the success rate of the installed EO-IR mission, the utilization of the EO-IR equipment can be further improved.
도 1은 무인항공기의 EO-IR장비와 지상통제장치 간의 통신과정의 일 예를 도식적으로 나타낸 도면이다.
도 2는 본 발명에 따른 영상처리 시스템의 일 예의 블록도를 도시한 도면이다.
도 3은 EO-IR장비로부터 생성된 원시영상데이터 및 메타데이터가 영상압축시스템에 의해 압축되는 과정을 도식적으로 나타낸 도면이다.
도 4는 지상통제장치를 통한 영상추적명령 전송 플로우의 일 예를 도식적으로 나타낸 도면이다.
도 5는 영상압축시스템이 원시영상데이터를 압축하여 지상통제장치로 송신하는 과정을 흐름도로 나타낸 도면이다.
도 6은 지상통제장치로부터 영상추적명령을 수신한 영상추적시스템이 영상을 추적하는 과정을 흐름도로 나타낸 도면이다.FIG. 1 is a diagram schematically showing an example of a communication process between an EO-IR device of an unmanned aerial vehicle and a ground control device.
2 is a block diagram of an example of an image processing system according to the present invention.
3 is a diagram schematically showing a process in which raw image data and metadata generated from EO-IR equipment are compressed by an image compression system.
4 is a diagram schematically showing an example of an image tracking command transmission flow through the ground control device.
FIG. 5 is a flowchart illustrating a process in which the image compression system compresses the raw image data and transmits it to the ground control device.
FIG. 6 is a flowchart illustrating a process of tracking an image by an image tracking system that receives an image tracking command from a ground control device.
실시 예들에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terminology used in the embodiments has been selected from general terms that are currently widely used as possible while considering functions in the present invention, but this may vary depending on the intention or precedent of a person skilled in the art or the appearance of a new technology. In addition, in certain cases, some terms are arbitrarily selected by the applicant, and in this case, their meanings will be described in detail in the description of the applicable invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the entire contents of the present invention, not a simple term name.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "…부", "…모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When a certain part of the specification "includes" a certain component, this means that other components may be further included instead of excluding other components unless otherwise specified. In addition, terms such as “…unit” and “…module” described in the specification mean a unit that processes at least one function or operation, which may be implemented in hardware or software, or a combination of hardware and software.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains may easily practice. However, the present invention can be implemented in many different forms and is not limited to the embodiments described herein.
이하에서는 도면을 참조하여 본 발명의 실시 예들을 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
도 1은 무인항공기의 EO-IR장비와 지상통제장치 간의 통신과정의 일 예를 도식적으로 나타낸 도면이다.FIG. 1 is a diagram schematically showing an example of a communication process between an EO-IR device of an unmanned aerial vehicle and a ground control device.
도 1을 참조하면, 무인항공기의 EO-IR장비(10)로부터 출력된 영상은 무인기데이터링크모듈(20)를 통해 지상통제장치(30)로 송신되는 것을 알 수 있다. 도 1은 무인항공기의 EO-IR장비와 지상통제장치 간의 통신과정을 설명하기 위한 개략도로서, 통신과정을 설명하기 위한 구성을 제외한 나머지 구성은 생략되었다고 가정한다.Referring to FIG. 1, it can be seen that the image output from the EO-
무인항공기의 EO-IR(ElectrOoptic-InfRared)장비(10)는 크게 ECA모듈(11), ICA모듈(13), ITA모듈(15), IPA모듈(17) 및 CTA모듈(19)로 구성된다.The EO-IR (ElectrOoptic-InfRared)
먼저, ECA모듈(11)은 전자광학카메라를 포함하는 모듈로서, 전자광학카메라를 통해 촬영대상을 촬영하고, 촬영으로 인해 생성되는 원시영상데이터(raw video data)를 프레임번호와 함께 ITA모듈(15)로 전달한다. 이 과정에서, 프레임번호 외에도 원시영상데이터에 대한 각종 메타데이터(metadata)도 ITA모듈(15)로 전달된다.First, the
ICA모듈(13)은 적외선카메라를 포함하는 모듈로서, 적외선카메라를 통해 촬영대상을 촬영하고, 촬영으로 인해 생성되는 원시영상데이터를 프레임번호와 함께 ITA모듈(15)로 전달한다. 이 과정에서, 프레임번호 외에도 원시영상데이터에 대한 각종 메타데이터도 ITA모듈(15)로 전달된다.The ICA
ITA모듈(15)은 ECA모듈(11) 및 ICA모듈(13)로부터 원시영상데이터 및 그 원시영상데이터에 대한 메타데이터를 전달받고, 전달받은 원시영상데이터 및 그 원시영상데이터의 메타데이터를 IPA모듈(17)로 전달한다. ECA모듈(11) 및 ICA모듈(13)로부터 1초당 30프레임의 원시영상데이터 및 메타데이터가 출력되면, ITA모듈(15)은 그 데이터들을 취합하여 IPA모듈(17)에 전달하는 기능을 수행한다.The ITA
IPA모듈(17)은 ITA모듈(15)로부터 필터링된 원시영상데이터 및 메타데이터를 전달받고, 원시영상데이터에 대한 영상압축과정의 전처리과정으로서, 미리 설정된 필터(filter)를 통해서 원시영상데이터의 각각의 프레임에서 특정한 데이터를 필터링처리한다. 이 과정에서 원시영상데이터로부터 불필요한 노이즈가 제거되거나 대조비(contrast ratio)강조 효과가 적용될 수 있다.The
CTA모듈(19)은 IPA모듈(17)로부터 전달받은 원시영상데이터를 프레임별로 분리한다. CTA모듈(19)은 원시영상데이터 외의 메타데이터는 CTA모듈(19)의 별도의 버퍼에 전달될 수 있도록 데이터라벨링처리를 수행할 수 있다. CTA모듈(19)은 프레임들과 메타데이터들을 일련의 과정을 통해서 가공하고, 압축(encoding)하는 과정을 수행하는 모듈로서, 영상압축은 무선통신을 통해서 지상통제장치(30)에 영상을 전달하기 위한 필수작업이다. CTA모듈(19)에 의해서 압축된 원시영상데이터들은 무인기데이터링크모듈(20)을 통해서 지상통제장치(30)에 전달된다.The
지상통제장치(30)에 도달한 원시영상데이터들은 압축이 해제(decoding)된 후에 재생(play)되며, 사용자는 지상통제장치(30)를 통해서 재생되는 원시영상데이터에서 포착해야 하는 표적을 발견하면, 해당 표적을 포착 후 계속 추적하라는 명령을 무인항공기에 전달할 수 있다.The raw image data reaching the
도 2는 본 발명에 따른 영상처리 시스템의 일 예의 블록도를 도시한 도면이다. 2 is a block diagram of an example of an image processing system according to the present invention.
도 2를 참조하면, 본 발명에 따른 영상처리시스템(200)은 영상압축시스템(210) 및 영상추적시스템(230)을 포함하는 것을 알 수 있다. 도 2의 영상처리시스템(200)은 도 1에서 설명한 무인항공기의 EO-IR장비(10)에 포함되거나, EO-IR장비(10)에 물리적 또는 논리적으로 연결되어 동작할 수 있다. Referring to FIG. 2, it can be seen that the
또한, 도 2의 영상처리시스템(200) 및 그 영상처리시스템(200)에 포함되어 있는 하위모듈은 도 1에서 설명한 ECA모듈(11), ICA모듈(13), ITA모듈(15), IPA모듈(17) 및 CTA모듈(19)의 기능과 실질적으로 동일하거나 유사한 기능을 처리하는 모듈일 수 있을 뿐만 아니라, 실시 예에 따라서, ECA모듈(11), ICA모듈(13), ITA모듈(15), IPA모듈(17) 및 CTA모듈(19) 중 적어도 두 개 이상의 모듈을 기능을 수행하거나, 일부의 기능을 수행하는 모듈을 포함할 수도 있으므로, 도 1을 참조하여 설명하기로 한다.In addition, the
먼저, 영상압축시스템(210)은 EO-IR장비가 촬영한 원시영상데이터를 수신하여 압축한 후, 압축된 영상데이터를 지상통제장치(30)로 송신하는 기능을 수행하는 시스템으로서, 영상데이터수신부(211), 영상버퍼저장부(212), 번호버퍼저장부(213),영상압축부(214), GPIO신호송신부(215) 및 동기화처리부(216)를 포함할 수 있다. 실시 예에 따라서, GPIO신호송신부(215)는 생략되거나, 동기화처리부(216)에 포함되는 형태로 구현될 수도 있다.First, the
영상데이터수신부(211)는 미리 설정된 시간동안 EO-IR장비(10)로부터 출력된 원시영상데이터 및 그 원시영상데이터를 구성하는 프레임들의 프레임번호를 수신한다. 여기서, 영상데이터수신부(211)가 수신하는 영상이란 정지영상 및 동영상을 모두 포함하는 개념이고, 영상을 구성하는 최소 단위는 프레임(frame)이다. 예를 들어, 원시영상데이터가 10프레임짜리 영상데이터라면, 그 원시영상데이터는 10개의 프레임이 시간적 순서에 따라 이어붙여진 영상데이터이며, 프레임의 연속재생이 가능한 장치를 통해서는 동영상으로 구현될 수 있다. 영상데이터수신부(211)가 수신한 원시영상데이터의 각각의 프레임에는 프레임번호가 붙어있으며, 이러한 프레임번호는 원시영상데이터의 메타데이터(metadata)로 본다.The image
영상버퍼저장부(212)는 수신된 원시영상데이터를 프레임별로 분리하고, 프레임별로 구비된 프레임버퍼(frame buffer)에 각각 저장한다. 영상버퍼저장부(212)는 원시영상데이터를 프레임별로 분리한 후에, 프레임의 수를 파악하고, 그 파악된 수에 따라 버퍼를 구비하여, 그 버퍼마다 프레임을 각각 저장한다. 이하에서, 프레임들을 저장하는 버퍼는 편의상 프레임버퍼라고 호칭하기로 한다. 여기서, 버퍼는 데이터를 짧은 시간동안에만 저장할 수 있는 적은 용량의 메모리를 의미하고, 미리 설정된 정보에 따라서, 특정한 해상도의 프레임을 저장할 수 있을 정도로 적절한 용량을 갖고 있다.The image
번호버퍼저장부(213)는 영상데이터수신부(211)가 수신한 프레임번호를 번호버퍼(number buffer)에 저장한다. 보다 구체적으로, 번호버퍼저장부(213)는 번호버퍼에 프레임번호를 시간적 순서에 따라서 누적시켜 저장할 수 있으며, 추후에 누적시킨 순서대로 출력시켜서 사용하기 위해서 큐(queue)방식으로 저장할 수 있다.The number
영상압축부(214)는 프레임버퍼에 저장된 원시영상데이터를 수신하고, 일괄적으로 압축한다. 여기서, 영상압축부(214)는 원시영상데이터를 프레임버퍼로부터 수신하여 일괄적으로 압축한다는 것은, 적어도 두 개 이상으로 분리되어 있던 원시영상데이터를 메타데이터가 존재하지 않는 하나의 영상데이터로 합친다는 것을 의미하고, 이 과정에서 지상통제장치로 영상데이터를 용이하고 빠르게 송신하기 위해서 압축(encoding)된다. 예를 들어, 1000개의 프레임버퍼에 저장된 원시영상데이터의 제1용량은 영상압축부(214)에 의해 압축된 후의 제2용량보다 훨씬 더 큰 용량을 갖는다. 본 발명에서, 영상데이터의 압축방법에 대해서는 널리 알려진 방식을 이용하므로, 프레임버퍼로부터 수신한 복수의 프레임을 하나의 영상데이터로 압축하는 방식을 특정한 한 가지의 방식으로 한정하지 않는다.The
GPIO신호송신부(215)에 대해서는, 설명의 편의를 위해서, 도 3에서 후술하기로 한다.The
동기화처리부(216)는 번호버퍼에 저장된 프레임번호를 영상압축부(214)에 의해 압축된 영상의 프레임별로 동기화시킨다. 동기화된 압축된 영상을 프레임번호와 함께 지상통제장치(30)에 송신된다.The
지상통제장치(30)는 동기화된 압축된 영상을 프레임번호와 함께 수신하고, 재생한다. 사용자는 지상통제장치(30)에서 압축이 해제(decoding)되어 재생되는 영상을 검토하고, 특정 프레임에서 추적이 필요한 추적대상을 포착(Lock-On)하고, 그 추적대상을 추적하라는 추격명령을 무인항공기의 영상처리시스템(200)에 송신할 수 있다. 영상처리시스템(200)은 추적명령을 수신하고, 수신된 추적명령을 영상추적시스템(230)에 전달하여, 사용자가 특정한 표적이 계속 추적될 수 있도록 할 수 있다.The
도 2를 참조하면, 영상추적시스템(230)은 추적정보수신부(231), 프레임검색부(233), 알고리즘선택부(235) 및 영상추적부(237)를 포함할 수 있다는 것을 알 수 있다. 도 2의 영상추적시스템(230)은 지상통제장치(30)로부터 수신된 추적명령을 분석하고, 영상버퍼(video buffer)에서 저장된 영상들의 프레임을 검색하여, 추적대상을 파악하고, 추적을 진행하는 기능을 수행한다.Referring to FIG. 2, it can be seen that the
추적정보수신부(231)는 지상통제장치(30)로부터 제1프레임번호, 게이트크기, 게이트좌표를 포함하는 영상추적정보를 수신한다. 여기서, 제1프레임번호는 사용자가 지상통제장치(30)를 통해 재생되고 있던 영상데이터에서 추적대상을 포착하였을 때, 그 포착한 순간의 프레임에 대한 번호를 의미한다. 예를 들어, t프레임부터 t+10프레임까지 재생되고 있던 영상데이터에서, t+4프레임에서 시점에서 갑자기 추적대상이 나타나서, 사용자가 지상통제장치(30)를 통해서 그 추적대상을 포착하라는 명령을 생성하여 무인항공기에 송신했다면, 제1프레임번호는 "t+4"가 된다.The tracking
게이트크기(size of gate)는 제1프레임번호에 해당하는 프레임에서, 추적대상을 둘러싸는 직사각형의 가로, 세로의 길이를 의미한다. 프레임에서 추적대상의 크기가 대략적으로 어느 정도의 크기인지 나타내는 지표로서, 픽셀단위로 표현될 수 있다. 예를 들어, 프레임의 전체 해상도가 640*480 픽셀이라면, 게이트크기는 40*30 일 수 있다. 게이트크기는 추적대상이 프레임에서 차지하는 크기에 따라서 유동적이다. 게이트좌표(coordinate of gate)는 제1프레임번호에 해당하는 프레임에서, 추적대상이 특정되었을 때, 그 추적대상의 중심지점의 좌표를 의미한다. 게이트좌표는 제1프레임번호에 대한 프레임에서, 추적대상이 구체적으로 어느 위치에 있는지를 나타나는 지표로서, 2차원 좌표값으로 표현될 수 있다.The gate size (size of gate) means a horizontal and vertical length of a rectangle surrounding a tracking target in a frame corresponding to the first frame number. As an index indicating how large the size of the tracking object is in the frame, it may be expressed in units of pixels. For example, if the overall resolution of the frame is 640*480 pixels, the gate size may be 40*30. The gate size is flexible depending on the size of the frame to be tracked. The coordinate of the gate (coordinate of gate) refers to the coordinates of the center point of the tracking target when the tracking target is specified in the frame corresponding to the first frame number. In the frame for the first frame number, the gate coordinate is an index indicating where the tracking target is specifically, and may be expressed as a 2D coordinate value.
프레임검색부(233)는 제1프레임번호가 현재시점에 대한 제2프레임번호보다 더 앞선 시점의 프레임의 번호라면, 영상버퍼에서 제1프레임번호에 대한 영상프레임을 검색한다. 여기서, 영상버퍼는 영상추적시스템(230)에 포함되어 있는 기억장치로서, 특정시간동안 EO-IR장비에 의해 촬영된 원시영상데이터를 시간적 순서에 따라서 저장하고 있다. 영상버퍼는 플래시 메모리(flash memory)처럼 비휘발성 메모리로 구성될 수 있을 뿐만 아니라, 더 빠른 데이터 입출력(I/O)속도를 확보하기 위해서 통전시에만 한시적으로 데이터를 저장하거나 일정주기로 리셋되는 휘발성 메모리로 구성될 수도 있다. 제1프레임정보는 EO-IR장비가 원시영상데이터를 생성할 때에 함께 생성되는 고유한 메타데이터로서, 프레임검색부(233)가 제1프레임정보와의 일치여부를 통해서 영상버퍼에 저장된 원시영상데이터를 검색하는 데에 이용될 수 있다.If the first frame number is the number of a frame at a point earlier than the second frame number for the current time, the
일 예로서, 프레임검색부(233)는 제1프레임번호가 1000이고, 현재시점에 대한 제2프레임번호가 1100이라면, 제1프레임번호가 제2프레임번호보다 더 앞선 시점의 프레임의 번호로 간주하여, 영상버퍼에서 제1프레임번호에 대한 영상프레임을 검색할 수 있다. 다른 일 예로서, 프레임검색부(233)는 제1프레임번호가 없거나, 제1프레임번호가 1100이고, 제2프레임번호도 1100이라면, 지상통제장치(30)로부터 수신된 추적대상이 없는 것으로 간주하고, 영상버퍼에서 제1프레임번호에 대한 영상프레임을 검색하지 않는다. 일단, 프레임검색부(233)는 제1프레임번호가 없거나, 제1프레임번호가 제2프레임번호와 일치하는 경우를 제외하고, 영상버퍼에서 제1프레임번호에 해당하는 영상프레임을 검색할 수 있게 된다.As an example, if the first frame number is 1000 and the second frame number for the current time is 1100, the
알고리즘선택부(235)는 제1프레임번호 및 제2프레임번호의 차이를 기초로 하여, 복수의 추적알고리즘 중 어느 하나를 선택할 수 있다. 예를 들어, 제1프레임번호가 1000, 제2프레임번호가 1100이라면, 제1프레임번호 및 제2프레임번호의 차이가 100이 되며, 알고리즘선택부(235)는 100이라는 프레임번호의 차이를 기초로 하여, 미리 저장하고 있던 추적알고리즘 중 어느 하나를 선택하게 된다. 다른 예로서, 제1프레임의 번호가 1000, 제2프레임의 번호가 10000이라면, 제1프레임번호 및 제2프레임번호의 차이가 9000이 되며, 알고리즘선택부(235)는 9000이라는 프레임번호의 차이를 기초로 하여, 미리 저장하고 있던 추적알고리즘 중 어느 하나를 선택할 수 있다. 전술한 두 가지 예에서, 프레임번호의 차이가 100인 경우는, 추적대상이 현재시점으로부터 얼마 전의 시점에 촬영된 프레임에 찍혀있다는 것을 의미하고, 프레임번호의 차이가 9000인 경우는, 전술한 예에 비해서, 추적대상이 현재시점으로부터 오래된 시점에 촬영된 프레임에 찍혀있다는 것을 의미한다.The
여기서, 추적알고리즘은 추적 스텝(step)을 포함하는 넓은 개념이다. 즉, 알고리즘선택부(235)는 제1프레임번호 또는 제2프레임번호의 영상의 상태(표적의 밝기, 배경의 밀도 등)에 따라서, 여러 가지 추적알고리즘 중 어느 하나의 알고리즘이 결정하고 나면, 그 결정된 알고리즘 내에서 100프레임단위의 추적 스텝 또는 1000프레임단위의 추적 스텝 등의 다양한 추적 스텝이 결정된다. 전술한 것과 같이, 추적 스텝의 절대값은 제1프레임번호 및 제2프레임번호의 차이에 의한다.Here, the tracking algorithm is a broad concept including a tracking step. That is, the
영상추적부(237)는 알고리즘선택부(235)에 의해 선택된 추적알고리즘에 결정된 추적속도에 따라 제1프레임번호의 영상프레임부터 제2프레임번호의 영상프레임에 도달할 때까지, 게이트크기, 게이트좌표에 대한 표적의 움직임을 추적한다. 영상추적부(237)는 제1프레임번호에 대한 영상프레임이 프레임검색부(233)에 의해 검색되고, 게이트크기 및 게이트좌표에 의해서 추적대상이 특정되면, 그 추적대상이 시간의 흐름에 따라서 프레임내에서 크기와 위치가 달라지는지를 추적알고리즘에 정의되어 있는 고유한 추적속도에 따라 추적하여, 현재시점의 추적대상이 EO-IR장비로부터 촬영되는 영상에 포함되어 있는지 파악할 수 있다. 예를 들어, t-100가 제1프레임번호라고 가정하면, 영상추적부(237)는 t-100에서의 게이트크기 및 게이트좌표에 따라서, 추적대상이 특정되고 나서, 알고리즘선택부(235)가 선택한 추적알고리즘에 따라서, t-100, t-98, t-96, t-94, ... t(현재 시점)까지 추적대상을 추적할 수 있다. 위의 예에서, 추적알고리즘에 정의된 추적속도는 2프레임/추적횟수라고 볼 수 있다. 추적속도는 전술한 2프레임/추적횟수 외에도 1프레임/추적횟수, 3프레임/추적횟수이 될 수도 있으며, 추적속도는 추적알고리즘의 효율성 및 추적대상의 포착실패율을 종합적으로 고려하여, 수학적, 경험적, 실험적으로 결정될 수 있다.The
본 발명에서는, 1차적으로는 지상통제장치(30)로부터 수신한 영상추적정보에 따라서, 과거의 영상데이터로부터 게이트크기 및 게이트좌표에 해당하는 추적대상이 찍혀있는 영상프레임을 검색하고, 과거시점의 영상프레임이 검색되고 나면, 그 과거시점으로부터 현재시점까지의 시간적인 텀(term)을 고려하여, 추적대상이 순차적으로 어떻게 변해왔는지 추적하는 것을 반복하여, 현재시점(현재 프레임)에서의 추적대상이 어떠한 게이트크기에 어떠한 게이트좌표에 위치하고 있는지 정확하게 추적할 수 있게 되어, 지상통제장치의 추적명령으로 인해 1차적으로 포착된 추적대상을 그 이후의 시점에도 놓치지 않게 되는 효과를 기대할 수 있다. 특히, 알고리즘선택부(235)가 제1프레임번호와 제2프레임번호와의 차이를 통해서, 적절한 추적속도를 갖는 알고리즘을 선택함으로써, 과거시점으로부터 현재시점까지 추적대상을 놓치지 않으면서도 적절하게 빠른 속도로 도달할 수 있게 된다.In the present invention, first, in accordance with the image tracking information received from the
선택적 일 실시 예로서, 알고리즘선택부(235)는 제1추적속도를 갖는 제1추적알고리즘 및 제2추적속도를 갖는 제2추적알고리즘 중 어느 하나를 선택할 수 있고, 여기서, 제2추적속도에 대한 제1추적속도의 비율이 기설정된 속도비율일 수 있다.As an optional embodiment, the
수학식 1에서, vt1은 제1추적속도, vt2는 제2추적속도, Rtrack은 제2추적속도에 대한 제1추적속도의 비율을 의미한다. 알고리즘선택부(235)는 제1추적속도와 제2추적속도의 비율을 기설정된 속도비율로 설정해놓을 수 있다. 본 선택적 일 실시 예에 따르면, 제1추적속도 및 제2추적속도의 속도비율을 미리 특정한 비율값으로 정해놓음으로써, 추적알고리즘의 효율이나 예측가능성을 확보할 수 있으며, 추적대상에 대한 추적에 실패할 경우, 추적속도를 조정하거나, 추적실패의 원인을 복기하는 것이 용이해지는 효과를 기대할 수 있다.In
도 3은 EO-IR장비로부터 생성된 원시영상데이터 및 메타데이터가 영상압축시스템에 의해 압축되는 과정을 도식적으로 나타낸 도면이다.3 is a diagram schematically showing a process in which raw image data and metadata generated from EO-IR equipment are compressed by an image compression system.
설명의 편의를 위해서, 도 3은 도 1 및 도 2를 참조하여 설명하기로 한다.For convenience of description, FIG. 3 will be described with reference to FIGS. 1 and 2.
원시영상데이터는 IPA모듈(17)에서 프레임별로 분리되며, 이 과정에서 프레임번호에 대한 메타데이터도 별도로 분리되어 관리된다. IPA모듈(17)은 원시영상데이터를 각각의 프레임별로 CTA모듈(19)의 프레임버퍼에 전달하며, CTA모듈(19)의 프레임버퍼의 수는 원시영상데이터의 프레임의 수와 동일하게 설정된다. 도 3에 도시된 바와 같이 프레임버퍼는 프레임의 수와 동일한 VDMA 버퍼를 갖는 FPGA모듈(Field Programmable Gate Array Module)로 구현될 수 있다. 프레임번호에 대한 메타데이터는 VDMA버퍼가 아닌 FPGA모듈의 SPI버퍼에 전달된다.The raw image data is separated for each frame in the
FPGA모듈은 도 2에서의 GPIO신호송신부(215)를 포함할 수 있다. GPIO신호는 다용도 입출력 포트 신호로서, 본 발명에서, 압축된 영상과 프레임번호를 동기화시키기 위한 신호로 기능한다. FPGA모듈에서 DSP모듈로 영상데이터가 전송될 때, GPIO신호송신부(215)는 GPIO신호를 발생시켜서, SPI 버퍼에 분리저장되어 있는 메타데이터(프레임번호 등)가 ARM모듈로 전송되도록 한다. 구체적으로 GPIO신호송신부(215)는 SPI 리딩신호(Reading Signal)을 DSP모듈로 송신하여, SPI 버퍼에 저장되어 있던 영상데이터의 메타정보가 ARM모듈의 데이터버퍼큐(Data Buffer Queue)에 누적되도록 제어하게 되고, 데이터버퍼큐에 누적된 메타데이터는 압축된 영상과 ARM모듈에서 동기화되어, SSD장치로 전달된다. 이 과정에서, VDMA 버퍼에 프레임별로 나누어서 저장되어 있는 영상데이터는 H.264와 같은 범용 인코더에 의해 압축된 후, 데이터버퍼큐의 메타정보와 동기화된다. 위와 같이 CTA모듈(19)이 FPGA모듈, DSP모듈, ARM모듈로 데이터를 나누어서 처리하는 것은 DSP모듈의 느린 외부 버스 속도와 같이, 각 데이터를 처리하는 데에 있어서 효율성을 극대화하기 위함이다.The FPGA module may include a
도 4는 지상통제장치를 통한 영상추적명령 전송 플로우의 일 예를 도식적으로 나타낸 도면이다.4 is a diagram schematically showing an example of an image tracking command transmission flow through the ground control device.
도 4를 참조하면, 사용자(User)는 지상통제장치(30)의 영상재생장치를 통해서, 추적대상을 포함하는 프레임을 특정하여, 영상추적명령을 내릴 수 있고, 사용자가 내린 영상추적명령은 지상통제장치(30)를 통해서 무인기데이터링크모듈(20)에 의해 EO-IR장비(10)에 도달하여, 일련의 과정을 통해서 EO-IR장비(10)가 추적대상에 대한 영상추적을 수행하도록 한다. 전술한 것과 같이, 영상추적명령에는 프레임번호, 게이트크기, 게이트좌표(location of gate)에 대한 정보가 포함되며, EO-IR장비(10)는 프레임번호를 전술한 제1프레임번호로 간주하고, 게이트크기 및 게이트좌표를 통해서, 영상버퍼에 저장되어 있는 과거 시점의 프레임에서 영상추적명령에 대응되는 추적대상을 판별하고, 현재 프레임까지 설정된 추적속도에 따라 추적하게 된다. 즉, 영상추적시스템(230)은 제1프레임번호부터 수신된 표적의 위치(게이트좌표)와 크기(게이트크기)로 내부(영상버퍼)에서 추적을 시작하고, 내부에서 추적중인 프레임번호가 촬영중인 현재 프레임번호에 도달했을 때, 정상 추적 상태로 추적 결과를 도시하기 시작한다. EO-IR장비(10)에 포함되어 있는 영상추적시스템(230)이 영상을 추적하는 과정에 대해서는 도 2를 통해 상세히 설명한 바 있으므로, 생략하기로 한다.Referring to FIG. 4, a user may issue a video tracking command through a video playback device of the
도 5는 영상압축시스템이 원시영상데이터를 압축하여 지상통제장치로 송신하는 과정을 흐름도로 나타낸 도면이다.FIG. 5 is a flowchart illustrating a process in which the image compression system compresses the raw image data and transmits it to the ground control device.
도 5는 도 2의 영상압축시스템(210)에 의해서 구현될 수 있으므로, 도 2를 참조하여 설명하기로 하고, 이하에서는, 도 2에서 설명한 내용과 중복된 설명은 생략하기로 한다.5 may be implemented by the
먼저, 영상데이터수신부(211)는 원시영상데이터 및 프레임번호를 수신한다(S510).First, the image
이어서, 영상버퍼저장부(212)는 수신된 원시영상데이터를 프레임별로 분리하고, 프레임별로 구비된 프레임버퍼에 각각 저장한다(S520).Subsequently, the image
번호버퍼저장부(213)는 수신된 프레임번호를 번호버퍼에 저장한다(S530).The number
영상압축부(214)는 프레임버퍼에 저장된 원시영상데이터를 수신하여, 일괄적으로 압축한다(S540).The
동기화처리부(216)는 번호버퍼에 저장된 프레임번호를 압축된 영상의 프레임별로 동기화시킨다(S550). 단계 S550에 앞서, GPIO신호송신부(215)는 프레임버퍼에 저장된 원시영상데이터의 프레임들을 영상압축부(214)로 송신하기 전에, 다용도입출력포트신호(GPIO신호)를 번호버퍼에 송신할 수도 있다는 것을 도 3을 통해 이미 설명한 바 있다.The
도 6은 지상통제장치로부터 영상추적명령을 수신한 영상추적시스템이 영상을 추적하는 과정을 흐름도로 나타낸 도면이다.FIG. 6 is a flowchart illustrating a process of tracking an image by an image tracking system that receives an image tracking command from a ground control device.
도 6는 도 2의 영상추적시스템(230)에 의해서 구현될 수 있으므로, 도 2를 참조하여 설명하기로 하고, 이하에서는, 도 2에서 설명한 내용과 중복된 설명은 생략하기로 한다.6 may be implemented by the
추적정보수신부(231)는 지상통제장비로부터 제1프레임번호, 게이트크기, 게이트좌표를 포함하는 영상추적정보를 수신한다(S610).The tracking
프레임검색부(233)는 영상추적정보를 기초로 표적이 있는 과거시점의 프레임을 영상버퍼에서 검색한다(S620).The
알고리즘선택부(235)는 제1프레임번호 및 제2프레임번호의 차이를 기초로 하여, 복수의 추적알고리즘 중 어느 하나를 선택할 수 있다(S630). 단계 S630의 선택적 일 실시 예로서, 알고리즘선택부(235)는 빠른 센트로이드(centroid) 추적알고리즘 또는 느린 코릴레이션(correlation) 추적알고리즘 중 어느 하나를 선택할 수도 있다. 센트로이드 추적알고리즘은 빠르게 동작하므로, 숫자로 표현되는 추적속도의 크기는 작은 특성을 갖고, 코릴레이션 추적알고리즘은 느리게 동작하는 특성상 빠르게 현재 프레임으로 추적대상을 추적하기 위해서, 추적속도의 크기 자체는 큰 특성을 갖는다. 예를 들어, 센트로이드 추적알고리즘의 추적속도는 1프레임/추적횟수, 코릴레이션 추적알고리즘의 추적속도는 2프레임/추적횟수만큼 프레임을 건너뛰면서 추적대상을 프레임마다 추적하게 된다.The
영상추적부(237)는 단계 S630에서 선택된 추적알고리즘에 의해 결정된 추적속도로 과거시점의 프레임부터 현재시점의 프레임까지 표적의 움직임을 추적한다(S640).The
본 발명에 따르면, 지상장비에서의 영상시현시점과 무인항공기의 EO-IR장비의 촬영시점의 차이를 최소화하여, 표적에 대한 초기 성공률을 획기적으로 향상시킬 수 있으며, 무인항공기 등 원격으로 통제되는 플랫폼에 장착된 EO-IR의 임무 성공률을 높여 EO-IR 장비의 활용도를 한층 더 개선시킬 수 있다.According to the present invention, it is possible to dramatically improve the initial success rate for the target by minimizing the difference between the image viewing time on the ground equipment and the shooting time of the EO-IR equipment of the unmanned aerial vehicle, and to a remotely controlled platform such as an unmanned aerial vehicle. By increasing the success rate of the installed EO-IR mission, the utilization of the EO-IR equipment can be further improved.
이상 설명된 본 발명에 따른 실시 예는 컴퓨터상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다.The embodiment according to the present invention described above may be implemented in the form of a computer program that can be executed through various components on a computer, and such a computer program can be recorded on a computer-readable medium. At this time, the medium includes a hard disk, a magnetic medium such as a floppy disk and magnetic tape, an optical recording medium such as CD-ROM and DVD, a magneto-optical medium such as a floptical disk, and a ROM. , Hardware devices specially configured to store and execute program instructions, such as RAM, flash memory, and the like.
한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be specially designed and configured for the present invention, or may be known and available to those skilled in the computer software field. Examples of computer programs may include not only machine language codes produced by a compiler, but also high-level language codes executable by a computer using an interpreter or the like.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific implementations described in the present invention are exemplary embodiments, and do not limit the scope of the present invention in any way. For brevity of the specification, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of the lines between the components shown in the drawings are illustrative examples of functional connections and/or physical or circuit connections, and in the actual device, alternative or additional various functional connections, physical Connections, or circuit connections. In addition, unless specifically mentioned, such as “essential”, “importantly”, etc., it may not be a necessary component for application of the present invention.
본 발명의 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 발명에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In the specification (particularly in the claims) of the present invention, the use of the term “above” and similar indication terms may be in both singular and plural. In addition, in the case of describing a range in the present invention, as including the invention to which the individual values belonging to the range are applied (if there is no contrary description), each individual value constituting the range is described in the detailed description of the invention. Same as Finally, unless there is a clear or contradictory description of the steps constituting the method according to the invention, the steps can be done in a suitable order. The present invention is not necessarily limited to the description order of the above steps. The use of all examples or exemplary terms (eg, etc.) in the present invention is merely for describing the present invention in detail, and the scope of the present invention is limited due to the examples or exemplary terms, unless it is defined by the claims. It does not work. In addition, those skilled in the art can recognize that various modifications, combinations, and changes can be configured according to design conditions and factors within the scope of the appended claims or equivalents thereof.
Claims (9)
영상데이터수신부가 상기 카메라로부터 출력된 원시영상데이터 및 상기 원시영상데이터를 구성하는 프레임들의 프레임번호를 수신하는 영상데이터수신단계;
영상버퍼저장부가 상기 수신된 원시영상데이터를 프레임별로 분리하고, 프레임별로 구비된 프레임버퍼에 각각 저장하는 영상버퍼저장단계;
번호버퍼저장부가 상기 수신된 프레임번호를 번호버퍼에 저장하는 번호버퍼저장단계;
영상압축부가 상기 프레임버퍼에 저장된 원시영상데이터를 수신하여 일괄적으로 압축하는 영상압축단계; 및
동기화처리부가 상기 번호버퍼에 저장된 프레임번호를 상기 압축된 영상의 프레임별로 동기화시키는 동기화처리단계;를 포함하는 무인항공기에 탑재되는 전자광학-적외선(EO-IR) 카메라의 영상 처리방법.As an image processing method of an electro-optical-infrared (EO-IR) camera mounted on an unmanned aerial vehicle,
An image data receiving step of receiving the raw image data output from the camera and the frame numbers of the frames constituting the raw image data;
An image buffer storage step in which the image buffer storage unit separates the received raw image data for each frame, and stores each of the received raw image data in a frame buffer provided for each frame;
A number buffer storage step in which the number buffer storage unit stores the received frame number in a number buffer;
An image compression step in which the image compression unit receives the raw image data stored in the frame buffer and collectively compresses it; And
Synchronization processing step of synchronizing the frame number stored in the number buffer by the synchronization processing unit for each frame of the compressed image; A method for processing an image of an electro-optical-infrared (EO-IR) camera mounted in an unmanned aerial vehicle.
상기 처리방법은,
상기 프레임버퍼에 저장된 원시영상데이터의 프레임들을 상기 영상압축부로 송신하기 전에, 다용도 입출력 포트(GPIO) 신호를 상기 번호버퍼에 송신하는 것을 특징으로 하는 GPIO신호송신단계를 더 포함하는 무인항공기에 탑재되는 전자광학-적외선(EO-IR) 카메라의 영상 처리방법.According to claim 1,
The treatment method,
The GPIO signal transmission step further comprises transmitting a multipurpose input/output port (GPIO) signal to the number buffer before transmitting the frames of the raw image data stored in the frame buffer to the image compression unit. Electro-optical-infrared (EO-IR) camera image processing method.
지상장비로부터 제1프레임번호, 게이트크기, 게이트좌표를 포함하는 영상추적정보를 수신하는 추적정보수신단계;
상기 수신된 제1프레임번호가 현재시점에 대한 제2프레임번호보다 더 앞선 시점의 프레임의 번호라면, 영상버퍼에서 상기 제1프레임번호에 대한 영상프레임을 검색하는 프레임검색단계;
상기 제1프레임번호 및 상기 제2프레임번호의 차이를 기초로 하여 복수의 추적알고리즘 중 어느 하나를 선택하는 알고리즘선택단계; 및
상기 선택된 추적알고리즘에 결정된 추적속도에 따라 상기 제1프레임번호의 영상프레임부터 상기 제2프레임번호의 영상프레임에 도달할 때까지 상기 게이트크기, 상기 게이트좌표에 대한 표적의 움직임을 추적하는 영상추적단계를 포함하는 무인항공기에 탑재되는 전자광학-적외선(EO-IR) 카메라의 영상추적방법.As an image tracking method of an electro-optical-infrared camera mounted on an unmanned aerial vehicle,
A tracking information receiving step of receiving image tracking information including a first frame number, gate size, and gate coordinates from the ground equipment;
A frame search step of searching for a video frame for the first frame number in an image buffer if the received first frame number is a number of a frame at a point earlier than the second frame number for the current time;
An algorithm selection step of selecting any one of a plurality of tracking algorithms based on the difference between the first frame number and the second frame number; And
An image tracking step of tracking the movement of the target with respect to the gate size and the gate coordinates from the video frame of the first frame number to the video frame of the second frame number according to the tracking speed determined by the selected tracking algorithm. Image tracking method of an electro-optical-infrared (EO-IR) camera mounted on an unmanned aerial vehicle comprising a.
상기 알고리즘선택단계는,
제1추적속도를 갖는 제1추적알고리즘 및 제2추적속도를 갖는 제2추적알고리즘 중 어느 하나를 선택하고,
상기 제2추적속도에 대한 상기 제1추적속도의 비율은 기설정된 속도비율인 것을 특징으로 하는 무인항공기에 탑재되는 전자광학-적외선(EO-IR) 카메라의 영상추적방법.According to claim 3,
The algorithm selection step,
Selecting one of a first tracking algorithm having a first tracking speed and a second tracking algorithm having a second tracking speed,
The ratio of the first tracking speed to the second tracking speed is a predetermined speed ratio, characterized in that the electronic optical-infrared (EO-IR) camera image tracking method mounted on an unmanned aerial vehicle.
상기 카메라로부터 출력된 원시영상데이터 및 상기 원시영상데이터를 구성하는 프레임들의 프레임번호를 수신하는 영상데이터수신부;
영상버퍼저장부가 상기 수신된 원시영상데이터를 프레임별로 분리하고, 프레임별로 구비된 프레임버퍼에 각각 저장하는 영상버퍼저장부;
번호버퍼저장부가 상기 수신된 프레임번호를 번호버퍼에 저장하는 번호버퍼저장부;
영상압축부가 상기 프레임버퍼에 저장된 원시영상데이터를 수신하여 일괄적으로 압축하는 영상압축부; 및
동기화처리부가 상기 번호버퍼에 저장된 프레임번호를 상기 압축된 영상의 프레임별로 동기화시키는 동기화처리부;를 포함하는 무인항공기에 탑재되는 전자광학-적외선(EO-IR) 카메라의 영상 처리시스템.An image processing system of an EO-IR camera mounted on an unmanned aerial vehicle,
An image data receiving unit that receives the raw image data output from the camera and frame numbers of frames constituting the raw image data;
An image buffer storage unit for separating the received raw image data for each frame and storing each of the received raw image data in a frame buffer provided for each frame;
A number buffer storage unit for storing the received frame number in the number buffer;
An image compression unit for receiving the raw image data stored in the frame buffer and compressing it in a batch; And
Synchronization processing unit for synchronizing the frame number stored in the number buffer frame by frame of the compressed image; an image processing system of an electro-optical-infrared (EO-IR) camera mounted in an unmanned aerial vehicle comprising a.
상기 처리시스템은,
상기 프레임버퍼에 저장된 원시영상데이터의 프레임들을 상기 영상압축부로 송신하기 전에, 다용도 입출력 포트(GPIO) 신호를 상기 번호버퍼에 송신하는 것을 특징으로 하는 GPIO신호송신부를 더 포함하는 무인항공기에 탑재되는 전자광학-적외선(EO-IR) 카메라의 영상 처리시스템.The method of claim 6,
The processing system,
An electronic device mounted on an unmanned aerial vehicle further comprising a GPIO signal transmitting unit, characterized in that a frame of the raw image data stored in the frame buffer is transmitted to the number buffer by sending a multipurpose input/output port (GPIO) signal to the image compression unit. Optical-infrared (EO-IR) camera image processing system.
지상장비로부터 제1프레임번호, 게이트크기, 게이트좌표를 포함하는 영상추적정보를 수신하는 추적정보수신부;
상기 수신된 제1프레임번호가 현재시점에 대한 제2프레임번호보다 더 앞선 시점의 프레임의 번호라면, 영상버퍼에서 상기 제1프레임번호에 대한 영상프레임을 검색하는 프레임검색부;
상기 제1프레임번호 및 상기 제2프레임번호의 차이를 기초로 하여 복수의 추적알고리즘 중 어느 하나를 선택하는 알고리즘선택부; 및
상기 선택된 추적알고리즘에 결정된 추적속도에 따라 상기 제1프레임번호의 영상프레임부터 상기 제2프레임번호의 영상프레임에 도달할 때까지 상기 게이트크기, 상기 게이트좌표에 대한 표적의 움직임을 추적하는 영상추적부를 포함하는 무인항공기에 탑재되는 전자광학-적외선(EO-IR) 카메라의 영상추적시스템.As an image processing system of an electro-optical-infrared camera mounted on an unmanned aerial vehicle,
A tracking information receiver that receives image tracking information including a first frame number, gate size, and gate coordinates from ground equipment;
A frame search unit for searching the video frame for the first frame number in an image buffer if the received first frame number is a frame number at a point earlier than the second frame number for the current time;
An algorithm selection unit selecting any one of a plurality of tracking algorithms based on the difference between the first frame number and the second frame number; And
Depending on the tracking speed determined by the selected tracking algorithm, the image tracking unit tracks the movement of the target with respect to the gate size and the gate coordinates from the video frame of the first frame number to the video frame of the second frame number. An image tracking system of an electro-optical-infrared (EO-IR) camera mounted on an unmanned aerial vehicle.
상기 알고리즘선택부는,
제1추적속도를 갖는 제1추적알고리즘 및 제2추적속도를 갖는 제2추적알고리즘 중 어느 하나를 선택하고,
상기 제2추적속도에 대한 상기 제1추적속도의 비율은 기설정된 속도비율인 것을 특징으로 하는 무인항공기에 탑재되는 전자광학-적외선(EO-IR) 카메라의 영상처리시스템.The method of claim 8,
The algorithm selection unit,
Selecting one of a first tracking algorithm having a first tracking speed and a second tracking algorithm having a second tracking speed,
The ratio of the first tracking speed to the second tracking speed is an image processing system of an electro-optical-infrared (EO-IR) camera mounted in an unmanned aerial vehicle, characterized in that a predetermined speed ratio.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180173076A KR102163697B1 (en) | 2018-12-28 | 2018-12-28 | Method for compensating delayed video data from EO-IR camera installed in unmanned aerial vehicle and system thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180173076A KR102163697B1 (en) | 2018-12-28 | 2018-12-28 | Method for compensating delayed video data from EO-IR camera installed in unmanned aerial vehicle and system thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200082466A true KR20200082466A (en) | 2020-07-08 |
KR102163697B1 KR102163697B1 (en) | 2020-10-08 |
Family
ID=71600558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180173076A KR102163697B1 (en) | 2018-12-28 | 2018-12-28 | Method for compensating delayed video data from EO-IR camera installed in unmanned aerial vehicle and system thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102163697B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102328151B1 (en) * | 2021-08-11 | 2021-11-17 | 한화시스템(주) | Data transmission device and method for zero latency |
KR20220013533A (en) | 2020-07-26 | 2022-02-04 | 안희태 | Role-sharing device for low discharge rate batteries and high discharge rate batteries |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004023541A (en) * | 2002-06-18 | 2004-01-22 | Sanyo Electric Co Ltd | Frame deviation detecting apparatus |
JP2008219070A (en) * | 2007-02-28 | 2008-09-18 | Nec Corp | Video encoding system, method and program |
KR100954500B1 (en) * | 2009-05-14 | 2010-04-22 | 한국항공우주산업 주식회사 | Control system for unmanned aerial vehicle |
KR20110113948A (en) | 2010-04-12 | 2011-10-19 | 전남대학교산학협력단 | Method for object tracking based on mean-shift algorithm modified using update of object set |
JP2012222653A (en) * | 2011-04-11 | 2012-11-12 | Nippon Telegr & Teleph Corp <Ntt> | Video playback device, video playback method, and video playback program |
KR101394164B1 (en) | 2013-01-17 | 2014-05-16 | 국방과학연구소 | High-accuracy video tracking method with super-resolution for video tracker, and high-accuracy video tracking apparatus by using the same |
KR101837407B1 (en) | 2017-11-03 | 2018-03-12 | 국방과학연구소 | Apparatus and method for image-based target tracking |
-
2018
- 2018-12-28 KR KR1020180173076A patent/KR102163697B1/en active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004023541A (en) * | 2002-06-18 | 2004-01-22 | Sanyo Electric Co Ltd | Frame deviation detecting apparatus |
JP2008219070A (en) * | 2007-02-28 | 2008-09-18 | Nec Corp | Video encoding system, method and program |
KR100954500B1 (en) * | 2009-05-14 | 2010-04-22 | 한국항공우주산업 주식회사 | Control system for unmanned aerial vehicle |
KR20110113948A (en) | 2010-04-12 | 2011-10-19 | 전남대학교산학협력단 | Method for object tracking based on mean-shift algorithm modified using update of object set |
JP2012222653A (en) * | 2011-04-11 | 2012-11-12 | Nippon Telegr & Teleph Corp <Ntt> | Video playback device, video playback method, and video playback program |
KR101394164B1 (en) | 2013-01-17 | 2014-05-16 | 국방과학연구소 | High-accuracy video tracking method with super-resolution for video tracker, and high-accuracy video tracking apparatus by using the same |
KR101837407B1 (en) | 2017-11-03 | 2018-03-12 | 국방과학연구소 | Apparatus and method for image-based target tracking |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220013533A (en) | 2020-07-26 | 2022-02-04 | 안희태 | Role-sharing device for low discharge rate batteries and high discharge rate batteries |
KR102328151B1 (en) * | 2021-08-11 | 2021-11-17 | 한화시스템(주) | Data transmission device and method for zero latency |
Also Published As
Publication number | Publication date |
---|---|
KR102163697B1 (en) | 2020-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10075758B2 (en) | Synchronizing an augmented reality video stream with a displayed video stream | |
CN106170096B (en) | Multi-angle video editing based on cloud video sharing | |
US10956749B2 (en) | Methods, systems, and media for generating a summarized video with video thumbnails | |
US9715903B2 (en) | Detection of action frames of a video stream | |
US8014566B2 (en) | Image processing apparatus | |
US9734870B2 (en) | Media identifier generation for camera-captured media | |
US10708673B2 (en) | Systems and methods for video processing | |
CN108028964B (en) | Information processing apparatus and information processing method | |
US20190035091A1 (en) | Systems and methods for video processing | |
US20070222858A1 (en) | Monitoring system, monitoring method and program therefor | |
US20150117831A1 (en) | Information processing device, information processing method, and program | |
KR102163697B1 (en) | Method for compensating delayed video data from EO-IR camera installed in unmanned aerial vehicle and system thereof | |
JP6203188B2 (en) | Similar image search device | |
US10033930B2 (en) | Method of reducing a video file size for surveillance | |
JP4709791B2 (en) | Video processing apparatus and video processing method | |
US20160295064A1 (en) | Photo cluster detection and compression | |
US11252408B2 (en) | Image processing apparatus and data receiving apparatus, and methods thereof | |
CN108985275B (en) | Augmented reality equipment and display tracking method and device of electronic equipment | |
EP3855350A1 (en) | Detection of action frames of a video stream | |
KR101415735B1 (en) | Apparatus and method for recording video | |
CN114268730A (en) | Image storage method and device, computer equipment and storage medium | |
US11202048B2 (en) | Video processing device, video processing system, video processing method, and video output device | |
JP6443144B2 (en) | Information output device, information output program, information output method, and information output system | |
KR20160023160A (en) | Method of managing video and audio data | |
US20200137321A1 (en) | Pulsating Image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right |