KR20230101974A - integrated image providing device for micro-unmanned aerial vehicles - Google Patents

integrated image providing device for micro-unmanned aerial vehicles Download PDF

Info

Publication number
KR20230101974A
KR20230101974A KR1020210190801A KR20210190801A KR20230101974A KR 20230101974 A KR20230101974 A KR 20230101974A KR 1020210190801 A KR1020210190801 A KR 1020210190801A KR 20210190801 A KR20210190801 A KR 20210190801A KR 20230101974 A KR20230101974 A KR 20230101974A
Authority
KR
South Korea
Prior art keywords
image
video
images
camera
micro
Prior art date
Application number
KR1020210190801A
Other languages
Korean (ko)
Inventor
송태훈
Original Assignee
주식회사 휴인스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 휴인스 filed Critical 주식회사 휴인스
Priority to KR1020210190801A priority Critical patent/KR20230101974A/en
Publication of KR20230101974A publication Critical patent/KR20230101974A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64FGROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
    • B64F5/00Designing, manufacturing, assembling, cleaning, maintaining or repairing aircraft, not otherwise provided for; Handling, transporting, testing or inspecting aircraft components, not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/10Propulsion
    • B64U50/13Propulsion using external fans or propellers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/10Propulsion
    • B64U50/19Propulsion using electrically powered motors
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B30/00Camera modules comprising integrated lens units and imaging units, specially adapted for being embedded in other devices, e.g. mobile phones or vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T50/00Aeronautics or air transport
    • Y02T50/60Efficient propulsion technologies, e.g. for aircraft

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Manufacturing & Machinery (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

The present invention relates to an integrated image providing device for a subminiature unmanned aerial vehicle and, more specifically, to an integrated image providing device for a subminiature unmanned aerial vehicle which receives EO camera images and IR camera images captured from the subminiature unmanned aerial vehicle and provides image data as a single integrated image. To integrate IR (infrared) camera video data and EO (electro-optical) camera video data on a single screen, a plurality of main components must be equipped in an image display device. A video receiver receives video feeds from both the EO and IR cameras. A video decoder converts each encrypted video stream back to the original format to display the video stream on the screen. An image processing device processes the incoming decrypted video feeds and combines the decrypted video feeds into a single stream to display the image on one screen. A video display device displays the combined stream, where the EO and IR images overlap each other, on the screen. In addition to the components, an image display device may have additional functions, such as adjusting the transparency of each image layer to control the amount of overlap or zooming a specific area of each image for detailed viewing. Overall, the function of integrating IR and EO camera video data on one screen allows a user to simultaneously view both types of images and understand the situation being monitored more completely. The overlap of the two images can provide additional context and detailed information not visible in the two images.

Description

초소형 무인기용 통합영상 제공장치{integrated image providing device for micro-unmanned aerial vehicles}Integrated image providing device for micro-unmanned aerial vehicles}

본 발명은 초소형무인항공기(UAV)용 통합영상제공장치에 관한 것으로서, 보다 상세하게는 영상피드를 통합하여 대상지역에 대한 종합적이고 고화질의 영상을 제공하는 장치에 관한 것이다. 마이크로 UAV에 장착된 여러 대의 카메라에서 항공 감시, 보안, 검사, 수색 및 구조 작업, 군사 작전을 포함한 다양한 분야에서 사용하기에 적합하다.The present invention relates to an integrated image providing device for a small unmanned aerial vehicle (UAV), and more particularly, to a device that provides a comprehensive and high-quality image of a target area by integrating image feeds. It is suitable for use in a variety of fields including air surveillance, security, inspection, search and rescue operations, and military operations in multiple cameras mounted on a micro UAV.

최근 몇 년 동안 무인 항공기(UAV)의 사용은 고효율 및 이동성으로 다양한 작업을 수행할 수 있는 능력으로 인해 점점 더 널리 보급되었다. 특히 초소형 UAV는 작고 가벼워 항공 감시, 보안, 검사, 수색 및 구조, 군사 작전 등의 용도로 널리 사용되고 있다.In recent years, the use of unmanned aerial vehicles (UAVs) has become increasingly prevalent due to their ability to perform a variety of tasks with high efficiency and mobility. In particular, ultra-small UAVs are small and light, and are widely used for air surveillance, security, inspection, search and rescue, and military operations.

하지만 해결해야 할 과제 중 하나는 이미지 수집을 위해 마이크로 UAV를 사용하는 것과 관련된 것은 각 개별 카메라의 제한된 시야(FOV) 및 해상도이다. 이로 인해 대상 영역에 대한 포괄적인 시야를 제공하지 못하는 불완전하거나 낮은 품질의 이미지가 발생할 수 있다.However, one of the challenges associated with using micro-UAVs for image acquisition is the limited field of view (FOV) and resolution of each individual camera. This can result in incomplete or low quality images that do not provide a comprehensive view of the target area.

이러한 기존 장치는 이미지 품질과 적용 범위가 약간 개선되었지만 여전히 필요하다. 보다 정확하고 효율적으로 대상 영역에 대한 보다 포괄적이고 고품질의 이미지를 제공할 수 있는 보다 진보된 통합 이미지 제공 장치를 위해 본 발명은 마이크로 UAV에 장착된 EO/IR 카메라의 비디오 피드를 통합하고 대상 영역의 고품질 종합 이미지를 실시간으로 제공함으로써 이러한 요구를 해결한다.These existing devices have slightly improved image quality and coverage, but they are still needed. For a more advanced integrated image providing device capable of providing a more comprehensive and high-quality image of the target area more accurately and efficiently, the present invention integrates the video feed of the EO/IR camera mounted on the micro UAV and It addresses this need by providing high-quality composite images in real time.

한국공개특허 1020220135446 (2022.10.07) “무인 비행 장치를 이용하여 EO/IR 장치의 자세를 추정하는 방법 및 시스템”을 보면, “무인 비행 장치를 이용하여 EO/IR 장치의 자세를 추정하는 방법 및 시스템이 개시된다. EO/IR 장치의 자세 추정 방법은 비행 중인 무인 비행 장치가 EO/IR(Electro-Optical and Infrared Sensors) 장치의 영상 전시기에 표시된 영상의 중심에 오도록 EO/IR 장치의 PT(Pan and tilt)를 제어하는 단계; 상기 무인 비행 장치를 이동시켜서 상기 무인 비행 장치의 서로 다른 위치들에 각각에 대응하는 EO/IR 장치의 PT 정보들을 수신하는 단계; 및 상기 무인 비행 장치의 서로 다른 위치들에 각각에 대응하는 EO/IR 장치의 PT 정보들을 기초로 EO/IR 장치의 자세를 추정하는 단계를 포함할 수 있다.”라는 기재되어 있다. Korean Patent Publication 1020220135446 (2022.10.07) “Method and system for estimating the attitude of the EO/IR device using an unmanned flight device”, “Method for estimating the attitude of an EO/IR device using an unmanned flight device and system is initiated. The posture estimation method of the EO/IR device controls PT (Pan and tilt) of the EO/IR device so that the unmanned aerial vehicle in flight comes to the center of the image displayed on the image display of the EO/IR (Electro-Optical and Infrared Sensors) device doing; moving the unmanned aerial vehicle to receive PT information of EO/IR devices corresponding to different positions of the unmanned aerial vehicle; and estimating the posture of the EO/IR device based on PT information of the EO/IR device corresponding to the different positions of the unmanned aerial vehicle.”

한국등록특허 1024718420000 (2022.11.24) “LVC 기반 드론 전술훈련을 위한 EO/IR 영상 시뮬레이션 방법”을 보면 “가상환경 지형 영상의 열 영상 처리의 배경영상 시뮬레이션을 수행하는 단계; 및 (5) 드론 시뮬레이터가 IR 영상을 통한 표적 객체의 열 영상 시뮬레이션을 수행하는 단계를 포함하는 것을 그 구성상의 특징으로 한다. 본 발명에서 제안하고 있는 LVC 기반 드론 전술훈련을 위한 EO/IR 영상 시뮬레이션 방법에 따르면, LVC 기반 드론 전술훈련의 가상환경에서 EO/IR 센서의 영상을 묘사하여 제공되는 환경에서, 센서 짐벌의 동작원리를 모의한 카메라 짐벌 시뮬레이션을 수행하고, 센서의 줌배율에 의한 화면 크기 시뮬레이션을 수행하며, 영상모드 전환에 의한 EO 영상, IR 영상의 시뮬레이션을 수행하고, IR 영상을 통한 가상환경 지형 영상의 열 영상 처리의 배경영상 시뮬레이션을 수행하며, IR 영상을 통한 표적 객체의 열 영상 시뮬레이션을 수행할 수 있도록 구성함으로써, 실제 실 환경을 모델링한 가상 환경에서 실제 EO/IR 센서의 카메라 영상을 묘사하여 실제 드론 운용에서의 카메라 운용과 같은 환경을 제공하고 훈련할 수 있도록 할 수 있다. 또한, 본 발명의 LVC 기반 드론 전술훈련을 위한 EO/IR 영상 시뮬레이션 방법에 따르면, 실제 실 환경을 모델링한 가상 환경에서 실제 EO/IR 센서의 카메라 영상을 묘사하여 실제 드론 운용에서의 카메라 운용과 같은 환경을 제공하고 훈련할 수 있도록 함으로써, 실제 환경과 유사한 훈련환경을 조성하여 훈련효과가 증대될 수 있도록 할 수 있다.”라고 기재되어 있다. Korean Registered Patent No. 1024718420000 (2022.11.24) “EO/IR image simulation method for LVC-based drone tactical training” shows “Simulating a background image of thermal image processing of a virtual environment terrain image; and (5) performing, by the drone simulator, thermal image simulation of the target object through the IR image. According to the EO/IR image simulation method for LVC-based drone tactical training proposed in the present invention, the operating principle of the sensor gimbal in an environment provided by describing EO/IR sensor images in a virtual environment of LVC-based drone tactical training Perform camera gimbal simulation that simulates, perform screen size simulation by zoom magnification of sensor, perform simulation of EO image and IR image by switching image mode, and perform thermal image of virtual environment terrain image through IR image Actual drone operation by depicting the camera image of the actual EO/IR sensor in a virtual environment that models the actual real environment by performing background image simulation of processing and configuring to perform thermal image simulation of the target object through IR image It is possible to provide an environment such as camera operation in and train. In addition, according to the EO/IR image simulation method for LVC-based drone tactical training of the present invention, a camera image of an actual EO/IR sensor is depicted in a virtual environment modeling a real real environment, so that the camera operation in real drone operation can be achieved. By providing an environment and enabling training, it is possible to create a training environment similar to the actual environment so that the training effect can be increased.”

한국공개특허 1020220135446 (2022.10.07) “무인 비행 장치를 이용하여 EO/IR 장치의 자세를 추정하는 방법 및 시스템”Korean Patent Publication No. 1020220135446 (2022.10.07) “Method and system for estimating attitude of EO/IR device using unmanned flight device” 한국등록특허 1024718420000 (2022.11.24) “LVC 기반 드론 전술훈련을 위한 EO/IR 영상 시뮬레이션 방법”Korean Registered Patent No. 1024718420000 (2022.11.24) “EO/IR video simulation method for LVC-based drone tactical training”

본 발명은 기존에 제안된 방법들의 상기와 같은 문제점들을 해결하기 위해 제안된 것으로서, 비디오수신기는 EO 및 IR 카메라로 부터 비디오 피드를 수신하면서, 비디오디코더는 암호화된 비디오 스트림을 원래 형식으로 다시 복호화하여 변환하며, 이미지처리부는 들어오는 복호화된 비디오 피드를 처리하고 단일 스트림으로 결합하며, 비디오디스플레이부는 EO 및 IR 이미지가 서로 겹치는 결합된 스트림을 화면에 표시하는 초소형 무인기용 통합영상 제공장치를 제시하고자 한다.The present invention is proposed to solve the above problems of the previously proposed methods, while the video receiver receives the video feed from the EO and IR cameras, the video decoder decodes the encrypted video stream back to its original form, The image processing unit processes the incoming decoded video feeds and combines them into a single stream, and the video display unit displays a combined stream in which EO and IR images overlap each other on the screen.

또한, 본 발명은 사용자인터페이스부를 제공하여 사용자로 하여금 초소형 무인기용 통합영상 제공장치에서 각 이미지 레이어의 투명도를 조정하여 겹치는 양을 제어하거나 각 이미지의 특정 영역을 확대하여 자세히 볼 수 있는 기능과 같은 추가 기능 및 각 이미지를 분할하여 볼 수 있도록 하며, 두 이미지 자체에서 볼 수 없는 추가 컨텍스트 및 세부 정보를 제공할 수 있는 또 다른 목적을 가진다. .In addition, the present invention provides a user interface unit so that the user can control the overlapping amount by adjusting the transparency of each image layer in the integrated image providing device for a micro-UAV or expand a specific area of each image to view additional features such as It has the other purpose of being able to provide additional context and details not visible in the two images themselves. .

상기한 목적을 달성하기 위한 본 발명의 특징에 따른 초소형 무인기용 통합영상 제공장치는,EO 및 IR 카메라로부터 촬영된 영상을 초소형 무인기의 장치가 암호화하여 송신한 비디오 피드를 수신하는 비디오수신기;와 An integrated video providing device for a micro-UAV according to the features of the present invention for achieving the above object is a video receiver for receiving a video feed transmitted by encrypting an image taken from an EO and an IR camera by the device of the micro-UAV; and

상기 비디오수신기의 암호화된 비디오 피드를 원래 형식으로 다시 복호화하여 변환하는 비디오디코더;와A video decoder for decoding and converting the encrypted video feed of the video receiver back to its original format; and

들어오는 복호화된 비디오 피드를 처리하고 단일 스트림으로 결합하는 이미지처리부;와 an image processing unit that processes the incoming decoded video feeds and combines them into a single stream; and

상기 이미지처리부를 통하여 획득한 단일 스트림을 이용하여 가시광선영상(EO) 및 적외선영상(IR) 이미지가 서로 겹치는 결합된 스트림을 화면에 표시하는 비디오디스플레이부를 포함하는 것을 구성상 특징으로 한다. It is characterized in that it includes a video display unit for displaying a combined stream in which visible ray image (EO) and infrared image (IR) images overlap each other on a screen using a single stream obtained through the image processing unit.

군사용으로 한 사람이 휴대하고 조작하기 쉬운 초소형 무인기에 적용할 수 있으며, 초소형 무인기에는 EO 및 IR 카메라가 모두 장착되어 있으며 무선 리모컨을 사용하여 원격으로 제어할 수 있고, 필요한 정찰, 감시 및 기타 군사 용도로 사용하기 적합하다. 이미지에서 감지된 움직임을 자동으로 감지하고 강조 표시한다. 여기에는 움직임 감지 알고리즘을 사용하는 이미지 디스플레이 장치가 포함되어 움직이고 있는 이미지 영역을 식별한 다음 사용자가 자세히 볼 수 있도록 해당 영역을 확대하거나 강조 표시한다. 이미지 표시 장치의 기능은 더 자세히 볼 수 있도록 디스플레이된 이미지의 특정 영역은 장치에 기능과 사용성을 추가하여 사용자가 디스플레이된 이미지에서 중요한 정보를 보다 쉽고 빠르게 식별할 수 있도록 한다.For military use, it can be applied to micro-UAVs that are easy to carry and operate by one person. The micro-UAVs are equipped with both EO and IR cameras and can be remotely controlled using a wireless remote control, and can be used for reconnaissance, surveillance and other military purposes that are necessary. suitable for use as Automatically detect and highlight motion detected in an image. It includes an image display device that uses motion-detection algorithms to identify areas of the image that are moving, then magnifies or highlights those areas for a closer look by the user. The function of an image display device is that certain areas of an image displayed for a more detailed view add functionality and usability to the device so that the user can more easily and quickly identify important information in the displayed image.

도 1은 본 발명의 일실시예에 따른 초소형 무인기를 활용한 초소형 무인기용 통합영상 제공장치의 배경도
도 2는 본 발명의 일실시예에 따른 초소형 무인기용 통합영상 제공장치의 구성도.
도 3은 초소형 광학카메라
도 4는 초소형 열화상카메라
도 5는 본 발명의 초소형 무인기용 통합영상 제공장치의 일실시예
도 6은 IR 카메라 영상에서 사람 탐지 실험 사진
1 is a background view of an integrated image providing device for a micro-UAV using a micro-UAV according to an embodiment of the present invention.
Figure 2 is a configuration diagram of an integrated image providing device for a micro-sized UAV according to an embodiment of the present invention.
3 is a compact optical camera
4 is a compact thermal imaging camera
5 is an embodiment of an integrated image providing device for a micro-sized UAV of the present invention
6 is a photograph of a person detection experiment in an IR camera image

이하, 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. Hereinafter, preferred embodiments will be described in detail so that those skilled in the art can easily practice the present invention with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 초소형 무인기를 활용한 초소형 무인기용 통합영상 제공장치의 배경도를 도시한 도면이다. 도 1에 도시된 바와 같이, 1 is a diagram showing a background view of an integrated image providing device for a micro-UAV using a micro-UAV according to an embodiment of the present invention. As shown in Figure 1,

본 발명의 배경이 되는 초소형 무인기를 활용한 초소형 무인기용 통합영상 제공장치의 배경도이다. It is a background diagram of an integrated image providing device for a micro-UAV using a micro-UAV, which is the background of the present invention.

초소형 무인기(120)는 수직 이·착륙이 가능하고, EO/IR 카메라를 동시 탑재하여 군사작전지역에서 촬영 및 전송이 가능한 500g급의 휴대형 초소형 감시정찰용 초소형 무인기이다. The micro-UAV 120 is a 500g-class portable micro-miniature surveillance and reconnaissance micro-UAV capable of vertical take-off and landing, and capable of filming and transmitting in a military operation area by simultaneously mounting an EO/IR camera.

자동 표적 추적 및 경로 비행 지원, 실시간 경로 및 표적 보정 기능, 비상모드 자동복귀 기능, 휴대할 수 있는 보관 케이스를 갖춘 초소형 무인기이다. It is an ultra-compact UAV equipped with automatic target tracking and route flight support, real-time route and target correction function, emergency mode automatic return function, and portable storage case.

초소형 무인기는 자동 표적 추적 및 비행 경로 지원 기능을 갖추고 있고 카메라와 센서가 장착되고 컴퓨터 알고리즘을 사용하여 목표물을 추적하고 비행 경로를 설정한다. 실시간 경로 수정 기능을 위해 드론에는 GPS 및 기타 센서가 장착되어 있으며 컴퓨터 알고리즘을 사용하여 실시간으로 비행 경로를 수정한다. 비상 모드 자동 복귀 기능이 있습니다. 이를 위해 드론은 안전한 비상착륙을 위해 GPS 등 센서를 탑재하고 컴퓨터 알고리즘을 이용해 비상모드를 자동으로 처리한다.The tiny UAV features automatic target tracking and flight path assistance, is equipped with cameras and sensors, and uses computer algorithms to track targets and establish flight paths. For real-time route correction, the drone is equipped with GPS and other sensors and uses computer algorithms to correct the flight route in real time. It has an emergency mode automatic return function. To this end, drones are equipped with sensors such as GPS for safe emergency landing and automatically handle emergency mode using computer algorithms.

초소형 무인기는 콤팩트하고 유선형 디자인으로 500그램 이상 지지할 수 있다. 무인 항공기에는 EO 및 IR 카메라가 들어 있는 아래쪽에 작은 카메라 모듈이 있다. 배터리는 무인기 본체 내부에 있으며 쉽게 교체할 수 있다. RF 통신 모듈은 상단에 장착되며 최대 5km 범위를 가진다. UAE는 최대 50km/h의 속도로 비행할 수 있으며 최대 500m의 고도까지 도달할 수 있다.The micro drone has a compact and streamlined design and can support more than 500 grams. The drone has a small camera module on the underside that houses the EO and IR cameras. The battery is inside the body of the drone and can be easily replaced. The RF communication module is mounted on the top and has a range of up to 5 km. The UAE can fly at speeds of up to 50 km/h and reach altitudes of up to 500 m.

GCS를 활용한 UAE는 지상통제시스템(130,GCS)을 이용해 조종하는 UAE를 말한다. GCS는 드론 운영자가 안전한 거리에서 UAE의 비행 경로, 카메라 및 기타 기능을 모니터링하고 제어할 수 있는 원격 관제 센터이다. GCS는 일반적으로 컴퓨터나 태블릿, 컨트롤러, 드론에 대한 통신 링크로 구성된다.The UAE using GCS refers to the UAE that is piloted using the ground control system (130, GCS). GCS is a remote control center that allows drone operators to monitor and control flight paths, cameras and other functions in the UAE from a safe distance. A GCS typically consists of a communication link to a computer or tablet, controller, or drone.

GCS를 사용하는 UAE를 사용하면 사용자가 UAE의 시야 너머로 비행할 수 있어 애플리케이션에 이상적이다. 수색 및 구조, 감시, 검사 및 매핑과 같은 GCS는 사용자에게 고도, 속도, GPS 위치, UAE 카메라의 비디오 피드와 같은 실시간 데이터를 제공한다. 사용자는 이 데이터를 사용하여 UAE의 비행 경로를 제어하고 대상 영역을 더 잘 볼 수 있도록 카메라 각도를 조정할 수 있다.UAE with GCS allows users to fly beyond the sights of the UAE, which is ideal for the application. GCS, such as Search and Rescue, Surveillance, Inspection and Mapping, provides users with real-time data such as altitude, speed, GPS location, and video feeds from UAE cameras. Users can use this data to control the UAE's flight path and adjust camera angles to get a better view of the target area.

GCS를 사용하는 UAE은 일반적으로 GPS, 센서, 컴퓨터와 같은 고급 기술을 사용한다. 안정적인 비행과 안정적인 작동을 제공하는 알고리즘. 또한 GCS는 일반적으로 자동 경로 계획, 장애물 회피, 비상 모드와 같은 다양한 기능을 제공하여 UAE의 안전하고 효율적인 작동을 보장한다.UAEs that use GCS typically use advanced technologies such as GPS, sensors, and computers. Algorithms that provide stable flight and reliable operation. Additionally, GCS generally provides various functions such as automatic route planning, obstacle avoidance, and emergency mode to ensure safe and efficient operation of the UAE.

KCMVP는 한국공인 다목적 보안 검증 프로그램의 약자이다. 정부 기관과 기관 간의 안전한 통신을 보장하기 위해 대한민국 정부의 국가정보원(NIS)에서 개발하고 관리하는 암호화 기술 표준이다.KCMVP is an abbreviation for Korea Certified Multipurpose Security Verification Program. It is an encryption technology standard developed and managed by the National Intelligence Service (NIS) of the Korean government to ensure secure communication between government agencies.

KCMVP 표준에는 NIS는 엄격한 보안 요구 사항을 충족한다. KCMVP에 사용되는 암호화 알고리즘은 데이터 기밀성, 무결성 및 가용성을 보호하도록 설계되었다.In the KCMVP standard, NIS meets strict security requirements. The cryptographic algorithms used in KCMVP are designed to protect data confidentiality, integrity and availability.

KCMVP는 기밀 정보를 취급하는 모든 정부 기관 및 조직에 필수이다. NIS는 이러한 조직에서 사용하는 암호화 제품 및 솔루션이 KCMVP 표준을 충족하는지 확인하기 위해 인증 및 테스트 서비스를 제공한다.KCMVP is mandatory for all government agencies and organizations handling confidential information. NIS provides certification and testing services to ensure that the cryptographic products and solutions used by these organizations meet the KCMVP standards.

KCMVP는 금융, 의료 및 통신을 포함한 한국의 다양한 산업에서 널리 채택되었고, KCMVP 표준은 세계에서 가장 엄격한 암호화 표준 중 하나로 간주되며 국제적으로도 인정을 받았다.KCMVP has been widely adopted in various industries in Korea, including finance, healthcare, and telecommunications. The KCMVP standard is considered one of the most stringent encryption standards in the world and has received international recognition.

KCMVP stands for Korea Certified Multi-Purpose security Validation Program을 의미한다.KCMVP stands for Korea Certified Multi-Purpose security Validation Program.

UAV의 목적은 군인에게 실시간 전장 정보를 제공하여 정보에 입각한 결정을 내리고 그에 따라 대응할 수 있도록 하는 것이다. UAV에는 고급 센서와 카메라가 장착되어 적 전투원을 모니터링하고 정찰하는 동시에 전술적 결정을 내릴 수 있도록 군인에게 실시간 정보를 제공한다.The purpose of UAVs is to provide soldiers with real-time battlefield information so they can make informed decisions and react accordingly. UAVs are equipped with advanced sensors and cameras to monitor and reconnoiter enemy combatants, while providing soldiers with real-time information to make tactical decisions.

지상통제시스템(130)은 무인기시스템 원격 운용을 위한 관련 하드웨어 장치( 통신모뎀 지상통제장치) 양방향 통신 기술과 소형, 경량, 저전력, 소출력의 탑재 정보교환 단말장치 기술, 효율인 사용자 인터페이스를 위한 지상통제장치 구축 기술, 방대한 데이터를 효율으로 전송하기 위한 데이터 압축 기술, 데이터 보안을 위한 데이터 부호화 해킹방지 기술,무인기시스템 비행경로 Geo fencing제어 기술이 탑재되어 있다. The ground control system 130 is a related hardware device (communication modem ground control device) for remote operation of the UAV system, two-way communication technology and a small, lightweight, low power, low power mounted information exchange terminal device technology, ground control for an efficient user interface It is equipped with device construction technology, data compression technology for efficient transmission of massive data, data encoding anti-hacking technology for data security, and geo fencing control technology for drone system flight paths.

본 발명의 초소형 무인기용 통합영상 제공장치(110)는 The integrated image providing device 110 for a micro-unmanned aerial vehicle of the present invention

EO 및 IR 카메라로부터 촬영된 영상을 초소형 무인기의 장치가 암호화하여 송신한 비디오 피드를 수신하는 비디오수신기;와 A video receiver for receiving a video feed transmitted by encrypting an image taken from an EO and an IR camera by a device of a micro-sized UAV; and

상기 비디오수신기의 암호화된 비디오 피드를 원래 형식으로 다시 복호화하여 변환하는 비디오디코더;와A video decoder for decoding and converting the encrypted video feed of the video receiver back to its original format; and

들어오는 복호화된 비디오 피드를 처리하고 단일 스트림으로 결합하는 이미지처리부;와 an image processing unit that processes the incoming decoded video feeds and combines them into a single stream; and

상기 이미지처리부를 통하여 획득한 단일 스트림을 이용하여 가시광선영상(EO) 및 적외선영상(IR) 이미지가 서로 겹치는 결합된 스트림을 화면에 표시하는 비디오디스플레이부를 포함하는 구성을 특징으로 하고 있다. It is characterized by a configuration including a video display unit for displaying a combined stream in which visible ray image (EO) and infrared image (IR) images overlap each other on a screen using a single stream obtained through the image processing unit.

초소형 무인기용 통합영상 제공장치(110)는 초소형 무인기(120)의 데이터 스트림을 지상통제시스템(130)을 통하여 전송받을 수도 있으며, 필요에 따라 직접 초소형 무인기(120)의 데이터 스트림을 수신하기도 한다. The integrated video providing device 110 for the micro-UAV may receive the data stream of the micro-UAV 120 through the ground control system 130, or directly receive the data stream of the micro-UAV 120 as needed.

도 2는 본 발명의 일실시예에 따른 초소형 무인기용 통합영상 제공장치의 구성도이다. 도 2에 도시된 바와 같이, 본 발명의 일실시예에 따른 초소형 무인기용 통합영상 제공장치(110)는 2 is a configuration diagram of an integrated image providing device for a micro-unmanned aerial vehicle according to an embodiment of the present invention. As shown in FIG. 2, the integrated image providing device 110 for a micro-unmanned aerial vehicle according to an embodiment of the present invention

EO 및 IR 카메라로부터 촬영된 영상을 초소형 무인기의 장치가 암호화하여 송신한 비디오 피드를 수신하는 비디오수신기(220);와 A video receiver 220 for receiving a video feed transmitted by encrypting an image taken from an EO and an IR camera by a device of a micro-sized UAV;

상기 비디오수신기의 암호화된 비디오 피드를 원래 형식으로 다시 복호화하여 변환하는 비디오디코더(230);와A video decoder 230 that decodes and converts the encrypted video feed of the video receiver back to its original format; and

들어오는 복호화된 비디오 피드를 처리하고 단일 스트림으로 결합하는 이미지처리부(240);와 An image processing unit 240 that processes incoming decoded video feeds and combines them into a single stream; and

상기 이미지처리부를 통하여 획득한 단일 스트림을 이용하여 가시광선영상(EO) 및 적외선영상(IR) 이미지가 서로 겹치는 결합된 스트림을 화면에 표시하는 비디오디스플레이부(250);와 A video display unit 250 that displays a combined stream in which visible ray image (EO) and infrared image (IR) images overlap each other on a screen using a single stream obtained through the image processing unit;

상기 비디오수신기, 비디오디코더, 이미지처리부, 비디오디스플레이부를 제어하는 제어부(210)을 포함하여 구성될 수 있다. It may be configured to include a control unit 210 that controls the video receiver, video decoder, image processing unit, and video display unit.

제어부(210)는 이미징 장치의 전반적인 작동을 관리하고 비디오수신기(220)는 EO 카메라와 IR 카메라에서 촬영된 비디오 신호를 수신한다. 이미지디코더(230)는 암호화된 비디오 신호를 해독하고 저장부(미도시)는 추가 처리를 위해 비디오 신호를 저장한다.The controller 210 manages the overall operation of the imaging device, and the video receiver 220 receives video signals captured by the EO camera and the IR camera. The image decoder 230 decodes the encrypted video signal and a storage unit (not shown) stores the video signal for further processing.

이미지처리부(240)내의 GPU 계산 장치는 기하학적 보정, 렌즈 왜곡 보정 및 노이즈 억제를 포함한 다양한 이미지 처리 기능을 수행한다. GPU 계산 장치는 또한 이미징 장치가 실시간 이미지 처리 및 표시를 수행할 수 있도록 한다.The GPU calculation unit in the image processing unit 240 performs various image processing functions including geometric correction, lens distortion correction, and noise suppression. The GPU computing unit also enables the imaging unit to perform real-time image processing and display.

비디오디스플레이부(250)는 이미지 표시 장치로서 EO 카메라 이미지와 IR 카메라 이미지를 화면에 표시한다. 비디오디스플레이부(250)는 또한 이미지의 특정 부분을 표시하기 위해 특정 영역을 결정할 수 있다.The video display unit 250 is an image display device and displays an EO camera image and an IR camera image on a screen. The video display unit 250 may also determine a specific area to display a specific part of the image.

본 발명의 핵심은 디스플레이용 IR 및 EO 카메라 이미지의 동시 수신 및 중첩을 위한 장치에 관한 것이다. 보다 구체적으로, 본 발명은 IR 카메라와 EO 카메라로 캡처한 이미지를 결합하여 하나의 중첩 이미지를 디스플레이용으로 제공하는 장치에 관한 것이다.The essence of the present invention relates to an apparatus for simultaneous reception and superimposition of IR and EO camera images for display. More specifically, the present invention relates to an apparatus for combining images captured by an IR camera and an EO camera to provide a single superimposed image for display.

적외선(IR) 및 전기 광학(EO) 카메라는 다양한 환경에서 이미지를 캡처하는 데 널리 사용된다. IR 카메라는 저조도 및 조명이 없는 환경에서 이미지를 캡처하는 데 사용되는 반면 EO 카메라는 일광 및 조명이 밝은 환경에서 이미지를 캡처한다. 이러한 카메라는 서로 다른 작동 원리를 가지고 있으며 서로 다른 스펙트럼 범위에서 이미지를 캡처한다.Infrared (IR) and electro-optical (EO) cameras are widely used to capture images in a variety of environments. IR cameras are used to capture images in low-light and no-light environments, whereas EO cameras capture images in daylight and well-lit environments. These cameras have different operating principles and capture images in different spectral ranges.

애플리케이션에서는 IR 및 EO 카메라로 캡처한 이미지를 결합하여 보다 완전하고 유익한 이미지를 제공하는 것이 바람직하다. 예를 들어 군사 및 감시 애플리케이션에서 두 가지 유형의 이미지를 결합하면 잠재적인 위협을 식별하고 상황 인식을 개선하는 데 도움이 될 수 있다. IR 및 EO 카메라 이미지를 동시에 수신하고 중첩할 수 있는 장치가 필요한 상황이다.In applications, it is desirable to combine images captured by IR and EO cameras to provide a more complete and informative image. For example, in military and surveillance applications, combining the two types of imagery can help identify potential threats and improve situational awareness. There is a need for a device that can simultaneously receive and superimpose IR and EO camera images.

본 발명은 디스플레이를 위한 IR 및 EO 카메라 이미지의 동시 수신 및 중첩을 위한 장치를 제공한다. 이 장치에는 각각 단일 플랫폼 즉, UAE에 장착된 IR 카메라와 EO 카메라가 포함되어 있다. 카메라에서 캡처한 이미지는 처리 및 중첩되어 디스플레이용 단일 합성 이미지를 제공한다.The present invention provides an apparatus for simultaneous reception and superimposition of IR and EO camera images for display. The device includes an IR camera and an EO camera, each mounted on a single platform, namely UAE. Images captured by the cameras are processed and superimposed to provide a single composite image for display.

상기 설명된 다기능 이미징 장치는 기존의 이미징 장치에 비해 다양한 이점을 제공한다. 여러 소스의 이미지 표시, 실시간 이미지 처리 및 표시, 특정 영역 표시가 가능하다. 또한 다양한 이미지 처리 기능을 제공하여 표시되는 이미지의 품질을 향상시킨다.The multifunctional imaging device described above provides various advantages over conventional imaging devices. It is possible to display images from multiple sources, process and display images in real time, and display specific areas. It also provides various image processing functions to improve the quality of displayed images.

기기에는 카메라에서 캡처한 이미지를 처리하기 위한 프로세서가 포함되어 있다. 프로세서는 이미지를 결합하고 이미지 향상을 수행하여 합성 이미지의 품질을 향상시킨다. 이 장치에는 합성 이미지를 표시하기 위한 디스플레이도 포함되어 있다.The device contains a processor for processing images captured by the camera. A processor combines the images and performs image enhancement to improve the quality of the composite image. The device also includes a display for displaying the composite image.

이 장치에는 확대/축소 및 패닝 기능, 이미지 기록 및 저장, 원격 위치로 이미지 전송과 같은 다양한 추가 기능이 포함될 수 있다.The device may include a variety of additional features such as zoom and pan functions, image recording and storage, and transmission of images to a remote location.

이미지처리부(240)에서는 두 카메라로부터 캡처된 이미지를 수신하여 하나로 결합하는 장치로서 이미지를 처리한다. 합성 이미지. 처리 유닛은 이미지 향상, 이미지 융합, 이미지 분할과 같은 이미지 처리를 수행하기 위한 하드웨어 및 소프트웨어를 포함할 수 있다. 처리부에는 합성 이미지의 품질을 최적화하기 위해 개별 이미지의 매개변수를 조정하는 알고리즘도 포함될 수 있다.The image processing unit 240 processes images as a device for receiving images captured from two cameras and combining them into one. composite image. The processing unit may include hardware and software to perform image processing such as image enhancement, image fusion, and image segmentation. The processing unit may also include algorithms to adjust parameters of the individual images to optimize the quality of the composite image.

이미지가 처리되고 결합되면 합성 이미지가 고해상도 모니터에 표시된다. 또는 헤드업 디스플레이(HUD)가 그 모니터의 일실시예가 될 수 있다. 즉, 디스플레이는 군용 또는 기타 전문 분야에서 사용하기 위해 헬멧이나 고글에 통합될 수 있다.As the images are processed and combined, the composite image is displayed on a high-resolution monitor. Alternatively, a head-up display (HUD) may be an embodiment of the monitor. That is, the display could be integrated into a helmet or goggles for use in military or other professional applications.

IR 및 EO 카메라는 단일 플랫폼인 UAE에 장착되고 시야가 겹치도록 정렬된다. 촬영이 시작되면 두 카메라가 동시에 이미지 캡처를 시작한다. IR 카메라는 적군의 열 신호를 캡처하고 EO 카메라는 환경을 시각적으로 캡처한다.The IR and EO cameras are mounted on a single platform, UAE, and are aligned with overlapping fields of view. When shooting starts, both cameras start capturing images simultaneously. IR cameras capture enemy heat signatures, and EO cameras visually capture the environment.

캡처된 이미지는 처리 장치로 전송되고, 여기에서 처리되어 하나의 합성 이미지로 결합된다. 처리 장치는 대비 및 밝기 조정과 같은 개별 이미지의 품질을 개선하기 위해 이미지 향상을 수행한다. 그런 다음 처리 장치는 IR 및 EO 이미지를 단일 합성 이미지로 결합하는 이미지 융합을 수행한다. 이것은 각 이미지의 픽셀 값을 분석하고 상대적 강점과 약점에 따라 결합하는 알고리즘을 사용하여 수행된다. 결과 합성 이미지는 적군의 열 신호와 환경의 시각적 이미지를 서로 겹쳐 보여준다.The captured images are sent to a processing device where they are processed and combined into one composite image. The processing unit performs image enhancement to improve the quality of individual images, such as adjusting contrast and brightness. The processing unit then performs image fusion combining the IR and EO images into a single composite image. This is done using an algorithm that analyzes each image's pixel values and combines them according to their relative strengths and weaknesses. The resulting composite image shows enemy heat signatures and visual images of the environment superimposed on top of each other.

그런 다음 합성 이미지가 표시된다. 고해상도 모니터 또는 헤드업 디스플레이(HUD)에서 디스플레이에는 사용자가 합성 이미지의 특정 영역에 초점을 맞출 수 있도록 줌 및 패닝 기능과 같은 추가 기능이 포함될 수 있다. 예제 시나리오에서 합성 이미지는 적군 병사의 위치를 시각적 환경에 오버레이하여 보여줌으로 건물을 탐색하고 더 정확하고 효과적으로 적과 교전할 수 있다.The composite image is then displayed. On a high-resolution monitor or heads-up display (HUD), the display may include additional features such as zoom and pan capabilities to allow the user to focus on a specific area of the composite image. In the example scenario, the composite image shows enemy soldiers' positions overlaid on the visual environment, allowing them to navigate buildings and engage the enemy more accurately and effectively.

도 3은 초소형 광학카메라이다. 3 is a miniature optical camera.

초소형 EO 광학 카메라는 작고 가벼우며 휴대가 간편하면서도 고품질 이미지를 제공하도록 설계된 카메라 유형이다. EO는 "전기 광학"의 약자로 CCD 또는 CMOS 센서와 같은 빛에 민감한 장치를 사용하여 들어오는 빛을 처리 및 표시할 수 있는 디지털 신호로 변환하는 것을 말한다.The ultra-compact EO optical camera is a type of camera designed to deliver high quality images while being small, lightweight and portable. EO stands for "electro-optical" and refers to the use of a light-sensitive device such as a CCD or CMOS sensor to convert incoming light into a digital signal that can be processed and displayed.

울트라 -컴팩트한 EO 광학 카메라는 일반적으로 작은 폼 팩터를 가지고 있어 휴대 및 운반이 용이하다. 또한 전력 소모가 낮아 배터리 전원으로 장시간 작동할 수 있다.Ultra-compact EO optical cameras generally have a small form factor, making them easy to carry and transport. In addition, it can operate for a long time on battery power due to low power consumption.

초소형 EO 광학 카메라는 크기는 작지만 다음과 같은 다양한 기능을 제공할 수 있다. 고해상도 이미징, 줌 기능 및 저조도 성능으로. 일부 모델은 이미지 안정화, 색상 보정, 자동 노출 제어와 같은 고급 이미지 처리 기능을 제공할 수도 있다.The ultra-compact EO optical camera is small in size but can offer a variety of features, including: With high resolution imaging, zoom capability and low light performance. Some models may also offer advanced image processing features such as image stabilization, color correction and automatic exposure control.

이러한 카메라는 일반적으로 항공 사진 및 비디오 촬영, 감시 및 보안, 산업 검사, 소비자 사진까지. 야외 활동이나 원격지와 같이 휴대성과 편의성이 중요한 상황에서 자주 사용된다.These cameras are commonly used for aerial photography and videography, surveillance and security, industrial inspection, and even consumer photography. It is often used in situations where portability and convenience are important, such as outdoor activities or remote locations.

초소형 EO 광학 카메라의 장점 중 하나는 다용도성이다. 작은 폼 팩터와 다양한 기능으로 극한 환경에서 고품질 이미지와 동영상을 캡처하는 것부터 공공 장소에서 감시 및 보안을 제공하는 것까지 다양한 상황에서 사용할 수 있다. 전반적으로 초소형 EO 광학 카메라는 휴대가 간편하고 사용하기 쉬운 패키지로 고품질 이미징을 필요로 하는 모든 사람에게 유용한 도구이다. 작은 크기와 다양한 기능 덕분에 다양한 응용 분야에 다재다능하고 유용한 장치가 되었으며 UAE에 탑재가 가능하다. One of the advantages of compact EO optical cameras is their versatility. Its small form factor and versatility allow it to be used in a variety of situations, from capturing high-quality images and video in extreme environments to providing surveillance and security in public spaces. Overall, the compact EO optical camera is a useful tool for anyone requiring high-quality imaging in a portable and easy-to-use package. Its small size and versatile features make it a versatile and useful device for a variety of applications and can be mounted in the UAE.

도 4는 초소형 열화상카메라이다4 is a compact thermal imaging camera

소형 열적외선(IR) 카메라는 환경에서 열 신호를 감지하고 표시하도록 설계된 카메라 유형이다. 가시광선을 감지하고 표시하는 기존 카메라와 달리 열 IR 카메라는 물체의 온도를 기준으로 물체에서 방출되는 적외선을 감지한다.A compact thermal infrared (IR) camera is a type of camera designed to detect and display heat signatures in the environment. Unlike conventional cameras that detect and display visible light, thermal IR cameras detect infrared light emitted by an object based on its temperature.

소형 열 IR 카메라는 일반적으로 크기가 작고 전력 소모가 적기 때문에 휴대가 간편하고 장시간 작동이 가능하다. 고해상도 이미징, 온도 측정, 실시간 동영상 스트리밍과 같은 기능도 제공할 수 있다. 소형 열화상 IR 카메라의 주요 장점 중 하나는 낮은 온도에서 열 신호를 감지할 수 있다는 것이다. 밝거나 완전히 어두운 조건에서 사용할 수 있어 광범위한 응용 분야에 유용하다. 예를 들어 열 IR 카메라는 일반적으로 소방, 수색 및 구조 작업, 산업 검사, 감시 및 보안, 군사 목적에 사용된다.Miniature thermal IR cameras are typically small in size and low power consumption, making them portable and long-lasting. It can also provide functions such as high-resolution imaging, temperature measurement, and real-time video streaming. One of the main advantages of compact thermal imaging IR cameras is their ability to detect heat signatures at low temperatures. It can be used in bright or completely dark conditions, making it useful for a wide range of applications. For example, thermal IR cameras are commonly used for firefighting, search and rescue operations, industrial inspection, surveillance and security, and military purposes.

소방에서 열 IR 카메라는 소방관이 핫스팟 또는 숨겨진 화재의 위치를 식별하는 데 도움이 될 수 있다. 불타는 건물에서 더 효과적으로 목표를 달성하고 피해를 최소화할 수 있다. 수색 및 구조 작업에서 열화상 IR 카메라는 조도가 낮거나 완전히 어두운 조건에서 체온 신호를 감지하여 실종자를 찾는 데 도움을 줄 수 있다. 산업 검사에서 열 IR 카메라는 기계적 문제 또는 기계나 장비의 과열을 나타낼 수 있는 열 신호를 식별할 수 있다. 감시 및 보안 분야에서 열화상 IR 카메라는 저조도 조건에서 사람과 동물의 움직임을 감지할 수 있어 건물이나 야외 공간에 추가적인 보안 계층을 제공한다. 전반적으로 소형 열화상 IR 카메라는 유용한 도구이다. 환경에서 열 신호를 감지하고 표시해야 하는 모든 사람을 위한 것이다. 작은 크기와 다양한 기능 덕분에 소방, 수색 및 구조에서 산업 검사, 감시 및 보안, 군사목적에 이르기까지 다양한 응용 분야에 다용도의 유용한 장치가 된다.In firefighting, thermal IR cameras can help firefighters identify the location of hotspots or hidden fires. You can target more effectively and minimize damage in burning buildings. In search and rescue operations, thermal IR cameras can help locate missing persons by detecting body temperature signatures in low-light or total darkness conditions. In industrial inspections, thermal IR cameras can identify thermal signatures that can indicate mechanical problems or overheating of machinery or equipment. In surveillance and security applications, thermal IR cameras can detect human and animal movements in low-light conditions, providing an extra layer of security for buildings or outdoor spaces. Overall, a compact thermal IR camera is a useful tool. It is for anyone who needs to detect and display heat signatures in the environment. Its small size and versatility make it a versatile and useful device for applications ranging from firefighting, search and rescue to industrial inspection, surveillance and security, and military purposes.

도 5는 본 발명의 초소형 무인기용 통합영상 제공장치의 일실시예이다. 5 is an embodiment of an integrated image providing device for a micro-unmanned aerial vehicle according to the present invention.

통합 영상 제공 장치는 현재 카메라로 촬영한 EO/IR 영상과 별도로 UAE의 비행 궤적을 표시하는 기능이 있다. 이를 통해 사용자는 다른 정보를 위에 오버레이하지 않고 자체적으로 비행 궤적 또는 EO/IR 이미지를 볼 수 있다.The integrated video providing device has a function of displaying the flight trajectory of the UAE separately from the EO/IR video taken by the current camera. This allows users to view flight trajectories or EO/IR images on their own without overlaying other information on top.

이를 달성하기 위해 시스템은 소프트웨어 및 사용자 인터페이스 디자인을 사용하여 사용자가 다른 모드 또는 보기 사이를 전환할 수 있다. 예를 들어 사용자는 비행 궤적만 표시하는 모드와 EO/IR 이미지만 표시하는 모드를 전환할 수 있다. 비행 궤적과 EO/IR 이미지를 표시하는 프로세스 별도로 다음 단계가 포함될 수 있다.To achieve this, the system uses software and user interface design to allow the user to switch between different modes or views. For example, users can switch between a mode that displays only flight trajectories and a mode that displays only EO/IR images. Apart from the process of displaying flight trajectories and EO/IR images, the following steps may be included:

사용자 인터페이스 디자인 시스템에는 사용자가 다른 모드나 보기 사이를 전환할 수 있는 사용자 인터페이스가 포함되어 있다. 여기에는 사용자가 다양한 모드를 선택하는 데 사용할 수 있는 버튼, 슬라이더 또는 기타 대화형 요소가 포함될 수 있다.A user interface design system includes a user interface that allows the user to switch between different modes or views. This can include buttons, sliders, or other interactive elements that users can use to select different modes.

사용자가 비행 궤적 모드를 선택하면 시스템에서 UAE의 비행 궤적을 지도 또는 해당 지역의 다른 시각화에 오버레이하여 표시한다. 여기에는 기체의 위치, 고도, 속도 및 방향과 같은 정보가 포함될 수 있다.When the user selects the flight trajectory mode, the system displays the flight trajectory of the UAE overlaid on a map or other visualization in the area. This can include information such as the aircraft's position, altitude, speed and direction.

EO/IR 이미지 디스플레이: 사용자가 EO/IR 이미지 모드를 선택하면 시스템에서 UAE에서 카메라로 캡처한 가장 최근의 EO/IR 이미지를 표시한다. 여기에는 실시간으로 업데이트되는 라이브 비디오 피드 또는 정지 이미지가 포함될 수 있다.EO/IR image display: When the user selects EO/IR image mode, the system will display the most recent EO/IR image captured by the camera in the UAE. This can include live video feeds or still images that are updated in real time.

모드 전환: 사용자는 비행 궤적 모드와 EO/IR 이미지 간에 전환할 수 있다. 사용자 인터페이스를 사용하는 모드를 통해 사용자는 다른 정보를 위에 오버레이하지 않고 자체적으로 비행 궤적 또는 EO/IR 이미지를 볼 수 있다.Mode switching: Users can switch between flight trajectory mode and EO/IR image. A mode using the user interface allows the user to view the flight trajectory or EO/IR image on its own without overlaying other information on top.

전반적으로 표시할 수 있는 기능 비행 궤적과 EO/IR 이미지는 사용자가 다른 모드나 보기 사이를 전환할 수 있는 소프트웨어와 사용자 인터페이스 디자인이 별도로 필요하다. 이것은 유연성을 제공하고 사용자가 주어진 시간에 자신의 필요에 가장 관련 있는 정보를 볼 수 있도록 한다.Ability to display overall flight trajectories and EO/IR images require separate software and user interface design that allows users to switch between different modes or views. This provides flexibility and allows users to view the information most relevant to their needs at any given time.

도 6은 IR 카메라 영상에서 사람 탐지 실험 사진이다. 6 is a photograph of a person detection experiment in an IR camera image.

IR(적외선) 이미지에서 사람을 감지하는 기술은 컴퓨터 비전 알고리즘과 기계 학습 기술을 기반으로 한다. IR 카메라는 물체의 온도에 따라 물체에서 방출되는 열복사 형태로 환경 이미지를 캡처한다. 주변 환경보다 따뜻한 인체는 열 복사를 더 많이 방출하므로 IR 이미지에서 더 쉽게 감지할 수 있다. IR 이미지에서 사람을 감지하는 과정에는 이미지 전처리, 기능 추출 및 분류. 이러한 단계는 다음과 같다.The technology for detecting people in IR (infrared) images is based on computer vision algorithms and machine learning technology. IR cameras capture images of the environment in the form of thermal radiation emitted by objects according to their temperature. A human body that is warmer than its surroundings emits more thermal radiation and is therefore easier to detect in IR images. The process of detecting a person in an IR image includes image pre-processing, feature extraction and classification. These steps are:

이미지 전처리: 카메라에서 캡처한 IR 이미지는 먼저 대비를 향상시키고 노이즈나 아티팩트를 제거하기 위해 전처리된다. 여기에는 히스토그램 균등화 또는 공간 필터링과 같은 기술이 포함될 수 있다.Image pre-processing: IR images captured by the camera are first pre-processed to enhance contrast and remove noise or artifacts. This may include techniques such as histogram equalization or spatial filtering.

특징 추출: 다음으로 사람 감지와 관련된 사전 처리된 IR 이미지에서 특징이 추출된다. 일반적인 특징에는 모양, 질감 및 온도 분포가 포함된다.Feature extraction: Next, features are extracted from pre-processed IR images related to human detection. Common characteristics include shape, texture, and temperature distribution.

분류: 그런 다음 기계 학습 알고리즘을 사용하여 IR 이미지에서 추출된 특징을 "사람" 또는 "비사람"로 분류한다. 이러한 알고리즘은 이미지에서 사람의 존재를 나타내는 기능의 패턴을 인식하는 방법을 학습한다.Classification: A machine learning algorithm is then used to classify the features extracted from the IR images as "human" or "non-human." These algorithms learn to recognize patterns of features that indicate the presence of people in images.

다음에 사용할 수 있는 여러 유형의 기계 학습 알고리즘이 있다.There are several types of machine learning algorithms that can be used for:

SVM(Support Vector Machines): 이 알고리즘은 기능 공간에서 "사람"과 "사람이 아닌" 클래스 사이의 최적 경계를 찾도록 훈련된다.Support Vector Machines (SVMs): These algorithms are trained to find the optimal boundary between “human” and “non-human” classes in a feature space.

인공 신경망(ANN): 이 알고리즘은 특징 공간에서 패턴을 인식하는 방법을 학습하는 상호 연결된 인공 뉴런 레이어로 구성된다.Artificial Neural Networks (ANNs): These algorithms consist of layers of interconnected artificial neurons that learn to recognize patterns in feature space.

Convolutional Neural Networks(CNN): 이 알고리즘은 이미지 분류 작업을 위해 특별히 설계된 일종의 ANN이다. 일련의 컨벌루션 및 풀링 레이어를 사용하여 다양한 스케일과 방향의 기능을 학습한다.Convolutional Neural Networks (CNN): This algorithm is a type of ANN specifically designed for image classification tasks. It uses a series of convolutional and pooling layers to learn features of different scales and orientations.

기계 학습 알고리즘이 레이블이 지정된 IR 이미지의 대규모 데이터 세트에 대해 훈련되면 새로운 IR 이미지에서 실시간으로 사람을 감지하는 데 사용할 수 있다. 알고리즘은 새로운 이미지에서 추출된 특징을 분석하고 사람이 있는지 여부를 예측한다.Once machine learning algorithms are trained on large datasets of labeled IR images, they can be used to detect people in new IR images in real time. The algorithm analyzes the features extracted from the new image and predicts whether a person is present or not.

전반적으로 IR 이미지에서 사람을 감지하는 기술은 컴퓨터 비전 알고리즘과 기계 학습 기술을 사용하여 관련 기능을 추출하고 "사람" 또는 "비사람"으로 분류한다. 이 기술은 보안, 수색 및 구조, 의료 영상을 포함한 다양한 분야에 적용된다.Overall, the technology for detecting people in IR images uses computer vision algorithms and machine learning techniques to extract relevant features and classify them as "human" or "non-human". This technology has applications in a variety of fields, including security, search and rescue, and medical imaging.

이러한 IR 영상과 EO 영상이 겹쳐질 때, IR 영상에 사람이 인지되면 사용자가 쉽게 판별할 수 있도록 이를 강조하는 표시를 할 수 있다. When such an IR image and an EO image overlap, when a person is recognized in the IR image, a display emphasizing this can be displayed so that the user can easily determine it.

적외선(IR) 이미지와 가시광선 이미지가 융합되어 정보가 풍부한 고해상도의 포괄적인 이미지를 생성한다. 다음은 이러한 이미지를 융합하는 데 사용되는 몇 가지 기법과 공식이다.Infrared (IR) and visible light images are fused to create a high-resolution, comprehensive image rich in information. Below are some techniques and formulas used to fuse these images.

픽셀 수준 융합: 이 기법에서는 이미지를 픽셀 수준에서 융합한다. 가시광 이미지와 IR 이미지의 해당 픽셀을 함께 융합한다. 이를 수행하는 가장 간단한 방법은 평균 융합으로 알려진 두 픽셀 값의 평균을 취하는 것이다.Pixel-level fusion: In this technique, images are fused at the pixel level. The corresponding pixels of the visible light image and the IR image are fused together. The simplest way to do this is to take the average of two pixel values, known as average fusion.

Wavelet 변환 기반 융합: 웨이블릿 변환은 다음과 같은 용도로 사용된다. 이미지를 다른 주파수 대역으로 분해한다. 고주파수 대역에는 미세한 디테일이 포함되고 저주파 대역에는 거친 디테일이 포함된다. 두 이미지의 웨이블릿 계수가 결합되어 융합된 이미지를 생성한다.Wavelet transform-based fusion: Wavelet transforms are used for: Decompose the image into different frequency bands. High frequency bands contain fine details and low frequency bands contain coarse details. The wavelet coefficients of the two images are combined to create a fused image.

강도-색조-채도(IHS) 변환 기반 융합: 이 기술에서는 IHS 변환이 적용된다. 가시광 이미지를 강도, 색조 및 채도 구성요소로 분리한다. Intensity 성분을 IR 이미지로 교체한 후 IHS 변환을 다시 적용하여 융합 이미지를 생성한다.Convergence based on Intensity-Hue-Saturation (IHS) transformation: In this technique, IHS transformation is applied. Separate visible light images into intensity, hue, and chroma components. After replacing the intensity component with an IR image, the IHS transformation is applied again to create a fusion image.

이미지 및 적외선 이미지. IHS 방식은 가시광 이미지와 적외선 이미지를 RGB 색 공간에서 IHS 색 공간으로 변환한다. IHS 색공간에서 intensity 채널은 이미지의 밝기 정보를 나타내고, 색상과 채도 채널은 이미지의 색상 정보를 나타낸다.image and infrared image. The IHS method converts a visible light image and an infrared image from an RGB color space to an IHS color space. In the IHS color space, the intensity channel represents brightness information of an image, and the hue and saturation channels represent color information of an image.

RGB 이미지를 IHS 색 공간으로 변환하는 공식은 다음과 같다.The formula for converting an RGB image to the IHS color space is:

I = (R + G + B) / 3 I = (R + G + B) / 3

H = arccos [0.5 * ((R - G) + (R - B)) / sqrt((R - G)^2 + (R - B) * (G - B))]H = arccos [0.5 * ((R - G) + (R - B)) / sqrt((R - G)^2 + (R - B) * (G - B))]

S = 1 - 3 * min(R, G, B) / (R + G + B)S = 1 - 3 * min(R, G, B) / (R + G + B)

여기에서 I 는 the intensity channel, H 는 the hue channel, and S 는 the saturation channel.where I is the intensity channel, H is the hue channel, and S is the saturation channel.

IHS 방식으로 가시광 이미지와 적외선 이미지를 융합하기 위해 IHS 색 공간에서 적외선 이미지의 강도 채널을 가시광 이미지의 강도 채널로 대체한다. 두 이미지를 융합하는 공식은 다음과 같다.In order to fuse the visible light image and the infrared image in the IHS method, the intensity channel of the infrared image is replaced with the intensity channel of the visible light image in the IHS color space. The formula for fusing the two images is:

I_fused = α * I_visible + (1 - α) * I_infraredI_fused = α * I_visible + (1 - α) * I_infrared

H_fused = H_visibleH_fused = H_visible

S_fused = S_visibleS_fused = S_visible

여기서 I_fused, H_fused 및 S_fused는 각각 융합된 이미지의 강도, 색조 및 채도 채널이다. α는 융합된 이미지에 대한 가시광선 이미지와 적외선 이미지의 기여도를 결정하는 가중치이다. α값이 클수록 가시광선 이미지에 가중치가 부여되고, α값이 작을수록 적외선 이미지에 가중치가 부여된다.where I_fused, H_fused and S_fused are the intensity, hue and saturation channels of the fused image, respectively. α is a weight that determines the contribution of the visible ray image and the infrared image to the fused image. As the value of α increases, weight is assigned to the visible ray image, and as the value of α decreases, weight is assigned to the infrared image.

위 식에서 α의 범위는 일반적으로 0과 1 사이이다. 여기서 α=0은 최종 융합 이미지에 원본 적외선 이미지만 포함됨을 의미하고 α=1은 최종 융합 이미지에 원본 가시광선 이미지만 포함됨을 의미한다. α 값은 각 입력 이미지가 최종 융합 이미지에 기여하는 정도를 결정한다.The range of α in the above equation is generally between 0 and 1. Here, α=0 means that only the original infrared image is included in the final fusion image, and α=1 means that only the original visible ray image is included in the final fusion image. The value of α determines how much each input image contributes to the final fusion image.

따라서, 본 발명에서는 α값을 0.1 내지 0.4로 조절하여 적외선 이미지에 가중치를 부여하여 사람을 사용자가 바로 인식할 수 있도록 한다. Therefore, in the present invention, the value of α is adjusted to 0.1 to 0.4 to give a weight to the infrared image so that the user can immediately recognize a person.

PCA(Principal Component Analysis) 기반 융합: PCA는 두 이미지에서 주성분을 추출하는 데 사용된 다음 구성요소를 결합하여 융합된 이미지를 만든다. 이 기법의 장점은 융합된 이미지의 정보 콘텐츠를 극대화한다는 것이다.Principal Component Analysis (PCA) based fusion: PCA is used to extract principal components from two images and then combine the components to create a fused image. The advantage of this technique is that it maximizes the informational content of the fused images.

라플라시안 피라미드 기반 융합: 라플라시안 피라미드는 이미지를 여러 레벨로 분해하는 데 사용되며, 각 수준은 다른 세부 수준을 나타낸다. 두 이미지의 피라미드 계수가 결합되어 융합된 이미지를 생성한다.Laplacian pyramid-based fusion: The Laplacian pyramid is used to decompose an image into multiple levels, each level representing a different level of detail. The pyramid coefficients of the two images are combined to create a fused image.

이미지 융합에 사용되는 특정 공식은 사용되는 기술에 따라 다르지만 일반적으로 수학적 연산의 조합이 필요하다. The specific formulas used for image fusion depend on the technology used, but usually involve a combination of mathematical operations.

이상은 특정 실시예를 참조하여 본 발명을 설명하였지만, 다양한 변경이 가능함은 당업자에게 자명하다. 본 발명의 진정한 정신 및 범위를 벗어나지 않고 구성요소에 대해 등가물이 대체될 수 있다. 또한, 본 발명의 본질적인 교시를 벗어나지 않고 많은 수정이 이루어질 수 있다.Although the present invention has been described with reference to specific embodiments, it is obvious to those skilled in the art that various changes are possible. Equivalents may be substituted for elements without departing from the true spirit and scope of the invention. In addition, many modifications may be made without departing from the essential teachings of the present invention.

110 : 초소형 무인기용 통합영상 제공장치 210 : 제어부
220 : 비디오수신기 230 : 비디오디코더
240 : 이미지처리부 250 : 비디오디스플레이부
110: Integrated video providing device for micro-unmanned aerial vehicle 210: Control unit
220: video receiver 230: video decoder
240: image processing unit 250: video display unit

Claims (1)

초소형 무인기용 통합영상 제공장치(110)에 있어서,
EO 및 IR 카메라로부터 촬영된 영상을 초소형 무인기의 장치가 암호화하여 송신한 비디오 피드를 수신하는 비디오수신기(220);와
상기 비디오수신기의 암호화된 비디오 피드를 원래 형식으로 다시 복호화하여 변환하는 비디오디코더(230);와
들어오는 복호화된 비디오 피드를 처리하고 단일 스트림으로 결합하는 이미지처리부(240);와
상기 이미지처리부를 통하여 획득한 단일 스트림을 이용하여 가시광선영상(EO) 및 적외선영상(IR) 이미지가 서로 겹치는 결합된 스트림을 화면에 표시하는 비디오디스플레이부(250);와
상기 비디오수신기, 비디오디코더, 이미지처리부, 비디오디스플레이부를 제어하는 제어부(210)를 포함하는 것을 특징으로 하는 초소형 무인기용 통합영상 제공장치.

In the integrated image providing device 110 for a micro-unmanned aerial vehicle,
A video receiver 220 for receiving a video feed transmitted by encrypting an image taken from an EO and an IR camera by a device of a micro-sized UAV;
A video decoder 230 that decodes and converts the encrypted video feed of the video receiver back to its original format; and
An image processing unit 240 that processes incoming decoded video feeds and combines them into a single stream; and
A video display unit 250 that displays a combined stream in which visible ray image (EO) and infrared image (IR) images overlap each other on a screen using a single stream obtained through the image processing unit;
An integrated video providing device for a micro-unmanned aerial vehicle, characterized in that it comprises a control unit 210 for controlling the video receiver, video decoder, image processing unit, and video display unit.

KR1020210190801A 2021-12-29 2021-12-29 integrated image providing device for micro-unmanned aerial vehicles KR20230101974A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210190801A KR20230101974A (en) 2021-12-29 2021-12-29 integrated image providing device for micro-unmanned aerial vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210190801A KR20230101974A (en) 2021-12-29 2021-12-29 integrated image providing device for micro-unmanned aerial vehicles

Publications (1)

Publication Number Publication Date
KR20230101974A true KR20230101974A (en) 2023-07-07

Family

ID=87154515

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210190801A KR20230101974A (en) 2021-12-29 2021-12-29 integrated image providing device for micro-unmanned aerial vehicles

Country Status (1)

Country Link
KR (1) KR20230101974A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117354054A (en) * 2023-12-04 2024-01-05 苏州浩丰空间数据科技有限公司 Unmanned aerial vehicle geological mapping data transmission method and system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220135446A (en) 2021-03-30 2022-10-07 한국전자통신연구원 Method and system for estimating the attitude of an eo/ir device using an unmanned aerial vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220135446A (en) 2021-03-30 2022-10-07 한국전자통신연구원 Method and system for estimating the attitude of an eo/ir device using an unmanned aerial vehicle

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
한국등록특허 1024718420000 (2022.11.24) "LVC 기반 드론 전술훈련을 위한 EO/IR 영상 시뮬레이션 방법"

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117354054A (en) * 2023-12-04 2024-01-05 苏州浩丰空间数据科技有限公司 Unmanned aerial vehicle geological mapping data transmission method and system
CN117354054B (en) * 2023-12-04 2024-03-08 苏州浩丰空间数据科技有限公司 Unmanned aerial vehicle geological mapping data transmission method and system

Similar Documents

Publication Publication Date Title
US9973692B2 (en) Situational awareness by compressed display of panoramic views
US10936894B2 (en) Systems and methods for processing image data based on region-of-interest (ROI) of a user
US11039086B2 (en) Dual lens system having a light splitter
AU2010236651B2 (en) Vehicle-mountable imaging systems and methods
US20200106818A1 (en) Drone real-time interactive communications system
US20150085133A1 (en) Wearable imaging devices, systems, and methods
US20090225001A1 (en) Hybrid Display Systems and Methods
CN110463176A (en) Image quality measure
US10529064B2 (en) Artificial vision system
US9762864B2 (en) System and method for monitoring at least one observation area
KR20130086192A (en) Unmanned aerial vehicle system operated by smart eyeglass
CN113486697B (en) Forest smoke and fire monitoring method based on space-based multimode image fusion
WO2018233217A1 (en) Image processing method, device and augmented reality apparatus
GB2503481A (en) Increased frame rate for tracked region of interest in surveillance image processing
Toet et al. Augmenting full colour-fused multi-band night vision imagery with synthetic imagery in real-time
Krebs et al. Beyond third generation: a sensor-fusion targeting FLIR pod for the F/A-18
KR20230101974A (en) integrated image providing device for micro-unmanned aerial vehicles
Toet et al. The TRICLOBS dynamic multi-band image data set for the development and evaluation of image fusion methods
Toet et al. INVIS: integrated night vision surveillance and observation system
Rasheed et al. Development of Drone-Based Human Rescue Strategies Using Virtual Reality
Drouin et al. Infrared and Visible Image Registration for Airborne Camera Systems
TWI731902B (en) An image system for vehicles
Hamesse et al. Development of Ultra-Portable 3D Mapping Systems for Emergency Services
Efe et al. Testing and evaluation of low-light sensors to enhance intelligence, surveillance, and reconnaissance (ISR) and real-time situational awareness
CN115761553A (en) Target identification method, AR glasses system and AR glasses