KR20220051053A - Goggle-type interface device for the mission of firefighting drone - Google Patents

Goggle-type interface device for the mission of firefighting drone Download PDF

Info

Publication number
KR20220051053A
KR20220051053A KR1020200134021A KR20200134021A KR20220051053A KR 20220051053 A KR20220051053 A KR 20220051053A KR 1020200134021 A KR1020200134021 A KR 1020200134021A KR 20200134021 A KR20200134021 A KR 20200134021A KR 20220051053 A KR20220051053 A KR 20220051053A
Authority
KR
South Korea
Prior art keywords
unit
data
drone
mission
fire
Prior art date
Application number
KR1020200134021A
Other languages
Korean (ko)
Other versions
KR102449070B1 (en
Inventor
박형관
Original Assignee
주식회사 허니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 허니 filed Critical 주식회사 허니
Priority to KR1020200134021A priority Critical patent/KR102449070B1/en
Publication of KR20220051053A publication Critical patent/KR20220051053A/en
Application granted granted Critical
Publication of KR102449070B1 publication Critical patent/KR102449070B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D1/00Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
    • B64D1/02Dropping, ejecting, or releasing articles
    • B64D1/04Dropping, ejecting, or releasing articles the articles being explosive, e.g. bombs
    • B64D1/06Bomb releasing; Bombs doors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0022Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • B64C2201/121
    • B64C2201/127
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/15UAVs specially adapted for particular uses or applications for conventional or electronic warfare
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

A goggle-type interface device for mission performance of a firefighting drone according to one embodiment of the present invention comprises: a drone device unit including a mission performance unit that performs a firefighting mission including launching of a grenade and a sensor unit including a camera sensor for obtaining video image data; a goggle device unit including a display unit that displays a screen in front of a wearer's field of view; an input device unit through which a user can input a signal; and a control arithmetic operation unit which communicates with each of the drone device unit, the goggle device unit, and the input device unit. The control arithmetic operation unit comprises: a communication module which receives and transmits signal or information data; an arithmetic operation module having a built-in arithmetic algorithm to correct first data received by the communication module to second data; a control module which generates a control command signal with respect to the drone device unit or the input device unit; and an interface module which shares a video image with the display unit and configured to enable the first data and the second data to be selectively or overlappingly displayed on the screen. According to the present invention, the goggle-type interface device for mission performance of a firefighting drone is capable of providing an accurate grenade launching guide.

Description

소방드론의 임무수행을 위한 고글타입의 인터페이스 장치{GOGGLE-TYPE INTERFACE DEVICE FOR THE MISSION OF FIREFIGHTING DRONE}Goggles-type interface device for the mission of fire drones

본 발명은 화재 초기 대응용 소방드론의 임무수행을 위한 고글타입의 인터페이스 장치에 관한 것으로서, 보다 상세하게는 촬영 이미지를 표시하고 비행 제어 정보를 표시할 뿐만 아니라 소방용 드론의 임무 수행을 위한 연산 데이터를 추가적으로 제공할 수 있는 고글타입의 인터페이스 장치에 관한 것이다.The present invention relates to a goggle-type interface device for performing a mission of a fire-fighting drone for initial response to a fire, and more particularly, displays a photographed image and flight control information as well as computation data for performing a mission of a fire-fighting drone. It relates to a goggle-type interface device that can be additionally provided.

최근 안전에 대한 사회적 관심의 증가와 함께 산업 전반에 불고 있는 사물인터넷 기반의 자동화, 무인화라는 4차 산업혁명에 대응하여 드론장치 등을 접목하는 무인형 화재인전관리 기술의 연구 개발에 높은 관심이 있다.There is a high interest in research and development of unmanned fire safety management technology that incorporates drone devices, etc. in response to the 4th industrial revolution of IoT-based automation and unmanned .

화재 발생 현장에서 신속한 화재 진압을 위해서는 소방대원이 화염의 진원지에 좀 더 가까이 접근해야 하는데, 화재가 일어난 곳에서는 뜨거운 화염과 유독가스가 발생하기 때문에 소방대원의 접근이 쉽지 않다. 특히 고온의 화염이 발생하고 폭발위험이 있는 화재현장에는 소방대원의 접근조차 쉽지 않다. 이러한 화재지역의 경우 소방대원이 신속하게 투입된다 하더라도 화재를 효율적으로 진압하기는 어렵다.In order to quickly extinguish a fire at the site of a fire, firefighters must approach the source of the flame a little closer, but it is not easy for firefighters to approach because hot flames and toxic gases are generated in the place where a fire occurs. In particular, it is not easy for firefighters to approach the fire site where there is a high-temperature flame and there is a risk of explosion. In the case of such a fire area, it is difficult to effectively extinguish the fire even if the fire brigade is dispatched quickly.

최근에는 소방대원이 접근하기 힘든 화염의 진원지에 화재 진압 및 초기대응을 위해 소화탄 발사/소화약재 분사 등의 임무를 수행하는 소방드론이 화재현장에 투입되고 있다. 그러나, 소방드론이 화재를 진압하기 위해 화염의 진원지에 접근할 경우 기체에 데미지가 발생할 확률이 높으며, 진입을 가로막는 장애물로 인해 신속한 접근이 어려워 화재 초기진압이 어려운 문제가 발생하고 있다. 또한, 소화기를 투척하는 소방드론의 경우 화재발생의 정확한 위치에 소화기를 투척하기 어려워 화재 초기 진압에 어려움이 있다.Recently, fire-fighting drones that perform tasks such as firing a fire extinguisher/spraying fire extinguishing agent in order to extinguish a fire and respond to a fire in the epicenter of a flame that are difficult for firefighters to access are being put into the fire scene. However, when the fire drone approaches the source of the flame to extinguish the fire, there is a high probability of damage to the aircraft. In addition, in the case of a fire drone that throws a fire extinguisher, it is difficult to throw the fire extinguisher at the exact location of the fire, so it is difficult to extinguish the fire at the initial stage.

최근에는 드론의 조작 편의성을 위해 고글형 컨트롤러를 접목하여촬영 이미지를 표시하는 동시에 비행제어 정보를 디스플레이에 표시하는 기술이 개시되고 있다. 다만, 소방드론의 임무수행시 발사체 탄착 지점은 거리, 드론 자세 장보, 임무모듈 종류 등 다양한 현장 변수에 따라 상이할 수 있으므로, 이를 종합적으로 고려한 발사 가이드 기술의 제시가 요구되는 실정이다.Recently, a technology for displaying a shot image and simultaneously displaying flight control information on a display by grafting a goggle-type controller for the convenience of operation of a drone has been disclosed. However, since the projectile impact point during the mission of the fire drone may be different depending on various field variables such as distance, drone posture, and type of mission module, it is required to present a launch guide technology that comprehensively considers this.

대한민국 등록특허공보 제10-1884906호 (2018.7.18)Republic of Korea Patent Publication No. 10-1884906 (2018.7.18)

본 발명이 해결하고자 하는 과제는 소방용 드론의 임무 수행을 위해 검출정보 데이터와 제어연산 데이터를 함께 제공할 수 있는 고글타입의 인터페이스 장치를 제공하는 것이다.SUMMARY OF THE INVENTION An object of the present invention is to provide a goggle-type interface device capable of providing detection information data and control operation data together in order to perform a mission of a firefighting drone.

본 발명의 과제들은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 과제를 해결하기 위한 본 발명의 실시예에 따른 소방드론의 임무수행을 위한 고글타입의 인터페이스 장치는, 소화탄 발사를 포함하는 소방임무를 수행하는 임무수행 유닛과, 영상 이미지 데이터를 획득하기 위한 카메라 센서를 포함하는 센서 유닛이 구비되는 드론장치부; 착용자의 시야 전방에 화면을 나타내는 디스플레이 유닛이 구비되는 고글장치부; 사용자가 신호를 입력할 수 있는 입력장치부; 및 상기 드론장치부, 상기 고글장치부 및 상기 입력장치부와 각각 통신하는 제어연산부를 포함하며, 상기 제어연산부는, 신호 또는 정보 데이터를 송수신하는 통신 모듈; 연산 알고리즘이 내장되어, 상기 통신모듈이 수신한 제1데이터를 제2데이터로 보정하는 연산 모듈; 상기 드론장치부 또는 상기 입력장치부에 대한 제어명령 신호를 생성하는 제어 모듈; 및 상기 디스플레이 유닛과 영상 이미지를 나타내는 화면을 공유하되, 상기 제1데이터 및 제2데이터가 선택적 또는 중첩적으로 화면에 표시되도록 하는 인터페이스모듈을 더 포함하는, 소방드론의 임무수행을 위한 고글타입의 인터페이스 장치일 수 있다.An interface device of a goggles type for performing a mission of a fire drone according to an embodiment of the present invention for solving the above problems includes a mission performing unit performing a fire fighting mission including firing a fire extinguisher, and for acquiring image image data Drone device unit provided with a sensor unit including a camera sensor; a goggles device provided with a display unit displaying a screen in front of the wearer's field of vision; an input device to which a user can input a signal; and a control arithmetic unit for communicating with the drone unit, the goggles unit, and the input unit, respectively, wherein the control arithmetic unit includes: a communication module for transmitting and receiving signals or information data; a calculation module having a built-in calculation algorithm to correct the first data received by the communication module into second data; a control module for generating a control command signal for the drone device unit or the input device unit; and an interface module that shares a screen displaying an image image with the display unit, but displays the first data and the second data selectively or overlappingly on the screen. It may be an interface device.

일 실시예에 있어서, 상기 드론장치부는, 상기 임무수행 유닛의 소화탄 발사각과 상기 카메라센서의 촬영각이 독립적으로 조절되도록 설치되는 것일 수 있다.In an embodiment, the drone device unit may be installed so that the firing angle of the fire bomb of the mission performance unit and the shooting angle of the camera sensor are independently adjusted.

일 실시예에 있어서, 상기 센서 유닛은 자이로스코프 센서, 가속도 센서 및 기울기 센서 중 적어도 어느 하나 이상을 더 구비하는 운동센서를 더 포함하는 것일 수 있다.In an embodiment, the sensor unit may further include a motion sensor further comprising at least one of a gyroscope sensor, an acceleration sensor, and a tilt sensor.

일 실시예에 있어서, 상기 센서 유닛은 기압 정보 데이터를 측정하는 기압센서를 더 포함하는 것일 수 있다.In an embodiment, the sensor unit may further include a barometric pressure sensor for measuring barometric pressure information data.

일 실시예에 있어서, 상기 센서 유닛은 상기 임무수행 유닛이 발사한 소화탄에 대한 데이터를 획득하는 추적센서를 더 포함하는 것일 수 있다.In one embodiment, the sensor unit may be to further include a tracking sensor for obtaining data on the fire ammunition fired by the mission performance unit.

일 실시예에 있어서, 상기 연산모듈은, 상기 제2데이터가 상기 임무수행 유닛의 소화탄 발사 좌표에 대한 정보를 포함하는 것일 수 있다.In one embodiment, the operation module, the second data may include information on the firing coordinates of the firearms of the mission performance unit.

일 실시예에 있어서, 상기 연산모듈은, 상기 제1데이터는 상기 입력장치부로 입력된 표적 좌표의 선택 신호 데이터를 포함할 수 있으며, 상기 제2데이터가 상기 표적 좌표에 도달하기 위한 소화탄 발사 방향 및 각도, 표적까지의 거리 및 장애물 존재 유무를 나타내는 데이터 중 적어도 어느 하나 이상을 포함하는 것일 수 있다.In one embodiment, the operation module, the first data may include a selection signal data of the target coordinates input to the input device unit, the second data is a small projectile firing direction to reach the target coordinates And it may include at least any one or more of data indicating the angle, the distance to the target, and the presence or absence of an obstacle.

일 실시예에 있어서, 상기 제어 모듈은, 상기 임무수행 유닛에 대하여 소화탄을 상기 제2데이터에 의해 보정된 방향 및 각도로 발사하도록 하는 제어명령 신호를 생성하는 것일 수 있다.In one embodiment, the control module may be to generate a control command signal for firing a fire bomb in the direction and angle corrected by the second data with respect to the mission performance unit.

일 실시예에 있어서, 상기 연산모듈은, 상기 제1데이터는 발사된 소화탄의 위치 고도, 이동 속도 및 방향 중 적어도 어느 하나 이상의 정보를 포함하며, 상기 제2데이터가 발사된 소화탄의 궤적 정보 또는 탄착 정보를 포함하는 것일 수 있다.In one embodiment, in the operation module, the first data includes at least any one or more information of a location, altitude, movement speed, and direction of a fire bomb fired, and the second data includes information on a trajectory of a fire bomb fired Alternatively, it may include impact information.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 발명의 실시예들에 의하면 적어도 다음과 같은 효과가 있다.According to the embodiments of the present invention, there are at least the following effects.

본 발명의 소방드론의 임무수행을 위한 고글타입의 인터페이스 장치는 표적의 좌표 정보, 드론 자세 정보, 임무모듈의 제원정보 등 다양한 변수에도 불구하고, 이를 종합적으로 고려하여 정밀한 소화탄 발사 가이드를 제공할 수 있게 된다.In spite of various variables such as target coordinate information, drone posture information, and specification information of the mission module, the goggle-type interface device for the mission performance of the fire drone of the present invention comprehensively considers this to provide a precise fire munition firing guide. be able to

이에 따라, 무인비행체를 이용하여 화재현장에서의 조속한 현장 조치를 통해 화재의 조기 진압 및 확산 방지를 이룰 수 있다.Accordingly, it is possible to achieve early suppression of fire and prevention of spread through prompt on-site action at the fire site using unmanned aerial vehicles.

본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.The effect according to the present invention is not limited by the contents exemplified above, and more various effects are included in the present specification.

도 1은 본 발명의 일 실시예에 의한 소방드론의 임무수행을 위한 고글타입의 인터페이스 장치를 나타내는 모식도이다.
도 2는 도 1의 소방드론의 임무수행을 위한 고글타입의 인터페이스 장치의 구성을 개념적으로 나타낸 블록도이다.
도 3은 도 1의 소방드론의 임무수행을 위한 고글타입의 인터페이스 장치의 작용을 개념적으로 나타낸 블록도이다.
도 4는 도 1의 고글장치부의 디스플레이 유닛이 나타내는 화면을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 의한 드론장치부의 임무수행 상태를 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 의한 입력장치부를 나타내는 도면이다.
1 is a schematic diagram illustrating a goggle-type interface device for performing a mission of a fire drone according to an embodiment of the present invention.
FIG. 2 is a block diagram conceptually illustrating the configuration of a goggle-type interface device for performing the mission of the fire drone of FIG. 1 .
3 is a block diagram conceptually illustrating the operation of the goggle-type interface device for performing the mission of the fire drone of FIG. 1 .
FIG. 4 is a view showing a screen displayed by the display unit of the goggles device of FIG. 1 .
5 is a view showing a mission performance state of the drone device according to an embodiment of the present invention.
6 is a view showing an input device according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

또한, 본 명세서에서 기술하는 실시예들은 본 발명의 이상적인 예시도인 단면도 및/또는 개략도들을 참고하여 설명될 것이다. 따라서, 제조 기술 및/또는 허용 오차 등에 의해 예시도의 형태가 변형될 수 있다. 또한, 본 발명에 도시된 각 도면에 있어서 각 구성 요소들은 설명의 편의를 고려하여 다소 확대 또는 축소되어 도시된 것일 수 있다. 이하, 도면을 참조하여 본 발명에 의한 다자유도 로봇의 마찰보상 시스템의 구체적인 실시예를 설명한다.Further, the embodiments described herein will be described with reference to cross-sectional and/or schematic diagrams that are ideal illustrative views of the present invention. Accordingly, the shape of the illustrative drawing may be modified due to manufacturing technology and/or tolerance. In addition, in each of the drawings shown in the present invention, each component may be enlarged or reduced to some extent in consideration of convenience of description. Hereinafter, a specific embodiment of a friction compensation system for a multi-degree-of-freedom robot according to the present invention will be described with reference to the drawings.

도 1은 본 발명의 일 실시예에 의한 소방드론의 임무수행을 위한 고글타입의 인터페이스 장치를 나타내는 모식도를, 도 2는 도 1의 소방드론의 임무수행을 위한 고글타입의 인터페이스 장치의 구성을 개념적으로 나타낸 블록도를, 도 은는 도 1의 소방드론의 임무수행을 위한 고글타입의 인터페이스 장치의 작용을 개념적으로 나타낸 블록도를 각각 도시한다.1 is a schematic diagram illustrating a goggle-type interface device for performing a mission of a fire drone according to an embodiment of the present invention, and FIG. 2 is a conceptual diagram showing the configuration of a goggle-type interface device for performing a mission of the fire drone of FIG. 1 Fig. 1 shows a block diagram conceptually showing the operation of the goggle-type interface device for the mission of the fire drone of Fig. 1, respectively.

도시된 바와 같이, 본 발명의 일실시예에 의한 소방드론의 임무수행을 위한 고글타입의 인터페이스 장치는 드론장치부(100), 고글장치부(200), 입력장치부(300) 및 제어연산부(400)를 발명의 기본 구성으로 포함할 수 있으며, 각 구성은 상호 무선 통신 연결되는 네트워크를 형성하는 것일 수 있다.As shown, the goggle-type interface device for performing the mission of the fire drone according to an embodiment of the present invention is a drone device unit 100, a goggles device unit 200, an input device unit 300, and a control operation unit ( 400) may be included as a basic configuration of the invention, and each configuration may form a network that is connected to each other by wireless communication.

드론장치부(100)는 원격 제어에 의해 화재 현장(1)에 접근하여 필요한 임무를 수행이 가능하도록 제어되는 하나 이상의 무인비행체이다. 상기 드론장치부(100)의 몸체 부분에는 임무수행 유닛(110) 및 센서 유닛(120, 미도시)이 일체로 설치되거나 또는 몸체 부분으로부터 각각 분리 가능한 형태로 장착될 수 있다.The drone device unit 100 is one or more unmanned aerial vehicles controlled to be able to perform a necessary mission by accessing the fire site 1 by remote control. The mission performance unit 110 and the sensor unit 120 (not shown) may be integrally installed on the body portion of the drone device 100 or may be mounted separately from the body portion.

임무수행 유닛(110)은 소화탄 발사 및/또는 소화약제 분사 등의 임무를 수행하며, 이외에도 화재 진압을 위해 필요한 다양한 형태의 임무 수행을 위한 모듈이 추가적으로 적용될 수 있다. 예컨대, 소방작업시의 장애물 제거를 위한 파쇄체 발사 임무, 재난자를 위한 구조 물품 발사 임무, 지상드론의 화재건물내 투입 임무 등을 더 수행하는 모듈이 적용되는 것일 수 있다.The mission performance unit 110 performs a mission such as firing a fire extinguisher and/or spraying a fire extinguishing agent, and in addition, a module for performing various types of missions required for fire suppression may be additionally applied. For example, a module that further performs a shredder launch mission for removing obstacles during firefighting work, a rescue article launch mission for disaster victims, a ground drone input mission into a fire building, etc. may be applied.

센서 유닛(120)은 드론장치부(100)의 주변 환경을 촬영하여 영상 이미지 데이터를 획득하기 위한 카메라센서(121)를 포함하며, 이외에도 화재현장에 대한 데이터를 획득하기 위한 다양한 형태의 센서 모듈이 적용될 수 있다. 특히, 임무수행 유닛(110)에 대한 적절한 원격제어를 위해 필요한 상황 데이터를 획득하기 위한 것일 수 있다.The sensor unit 120 includes a camera sensor 121 for acquiring image image data by photographing the surrounding environment of the drone device unit 100, and in addition, various types of sensor modules for acquiring data on a fire scene are provided. can be applied. In particular, it may be for acquiring situation data necessary for proper remote control of the mission performance unit 110 .

한편 본 발명의 일 실시예에 의한 상기 드론장치부(100)는, 임무수행 유닛(110)의 소화탄 발사각과 카메라센서(121)의 촬영각이 독립적으로 조절되도록 설치되는 것일 수 있다.Meanwhile, the drone device unit 100 according to an embodiment of the present invention may be installed so that the firing angle of a firearm of the mission performance unit 110 and the shooting angle of the camera sensor 121 are independently adjusted.

즉, 카메라센서(121)의 촬영각을 그대로 두어 실시간으로 획득하는 영상 이미지 데이터를 유지하는 동시에, 임무수행 유닛(110)의 소화탄 발사각을 조향하도록 제어할 수 있다. 이에 따라, 본 발명에 의한 인터페이스 장치는 사용자가 원하는 현장 영역에서의 시야를 일정하게 유지한 상태에서 상기 임무수행 유닛(110)의 제어가 독립적으로 이루어 질 수 있다.That is, while maintaining the video image data acquired in real time by leaving the shooting angle of the camera sensor 121 as it is, it is possible to control to steer the firearm firing angle of the mission performance unit 110 . Accordingly, in the interface device according to the present invention, the control of the mission performance unit 110 can be independently performed while constantly maintaining the field of view in the field area desired by the user.

본 발명의 일 실시예에 의한 센서 유닛(120)은 드론장치부(100)의 상태 정보, 특히 임무수행 유닛(110)의 자세 정보 데이터를 획득하기 위한 운동센서(122)를 구비하며, 상기 운동센서(122)는 자이로스코프 센서, 가속도 센서 및 기울기 센서 중 적어도 어느 하나 이상을 포함하는 것일 수 있다. 즉, 상기 운동센서(122)는 상기 임무수행 유닛(110)의 (가)속도, 기울기, 방향, 각도 중 어느 하나 이상의 데이터를 획득하는 것일 수 있다.The sensor unit 120 according to an embodiment of the present invention includes a motion sensor 122 for acquiring state information of the drone device unit 100, in particular, posture information data of the mission performance unit 110, and the movement The sensor 122 may include at least one of a gyroscope sensor, an acceleration sensor, and a tilt sensor. That is, the motion sensor 122 may be to acquire any one or more data of (acceleration) speed, inclination, direction, and angle of the mission performance unit 110 .

본 발명의 일 실시예에 의한 센서 유닛(120)은 상기 드론장치부(100) 위치에서의 기상 정보 데이터를 획득하는 기상센서(123)를 구비하며, 일례로 상기 기상센서(123)는 상기 드론장치부(100) 위치에서의 대기압을 측정하는 기압센서(123a)일 수 있다. 즉, 상기 기상 정보는 기압 정보를 포함하며, 이외에도 풍량, 풍향, 습도, 우량 정보 중 어느 하나 이상의 데이터를 포함하는 것일 수 있다.The sensor unit 120 according to an embodiment of the present invention includes a weather sensor 123 for acquiring weather information data at the location of the drone device 100, and for example, the weather sensor 123 is the drone. It may be an atmospheric pressure sensor 123a that measures atmospheric pressure at the location of the device 100 . That is, the weather information may include air pressure information and, in addition, any one or more data among wind volume, wind direction, humidity, and rainfall information.

상술한 다양한 실시예들이 적용된 센서 유닛(120)이 획득한 정보 데이터는, 후술하는 바에 따라 소화탄의 예상 발사좌표 및 표적좌표에 대한 정보 데이터로 연산될 수 있으며, 이는 드론장치부(100)의 원격제어를 담당하는 사용자에게 제공될 수 있다.The information data obtained by the sensor unit 120 to which the above-described various embodiments are applied may be calculated as information data on the expected launch coordinates and target coordinates of the fire munitions as described below, which is of the drone device unit 100 . It may be provided to a user in charge of remote control.

본 발명의 일 실시예에 의한 센서 유닛(120)은 임무수행 유닛(110)이 발사한 소화탄에 대한 데이터를 획득하는 추적센서(124)를 더 포함하며, 보다 구체적으로 상기 추적센서(124)는 발사된 소화탄에 궤적 및 탄착지점을 산출하기 위한 데이터로서 소화탄의 위치 고도, 이동 속도 및 방향 중 적어도 어느 하나 이상의 정보를 획득하는 것일 수 있다. The sensor unit 120 according to an embodiment of the present invention further includes a tracking sensor 124 that acquires data about the fire ammunition fired by the mission performance unit 110, and more specifically, the tracking sensor 124 is data for calculating the trajectory and the impact point of the fired small fire bomb, and may be to obtain at least any one or more information of the location, altitude, moving speed, and direction of the fire projectile.

고글장치부(200)는 사용자가 착용 가능한 헤드 마운트 형태로 형성될 수 있으며, 착용자의 시야 전방에 데이터를 표시하기 위한 화면을 나타내는 디스플레이 유닛(210)을 구비한다. 상기 디스플레이 유닛(210)이 나타내는 화면은 후술하는 바와 같이 제어연산부(400)와 영상 이미지를 공유하되, 센서 유닛(120)의 카메라센서(121)가 실시간으로 촬영한 데이터를 영상 이미지로 표시할 수 있다. 이에 대한 상세한 설명은 도 4를 참조하여 후술한다.The goggles device 200 may be formed in a user-wearable head mount form, and includes a display unit 210 that displays a screen for displaying data in front of the wearer's field of vision. The screen displayed by the display unit 210 shares an image image with the control operation unit 400 as described later, but data captured by the camera sensor 121 of the sensor unit 120 in real time can be displayed as an image image. there is. A detailed description thereof will be described later with reference to FIG. 4 .

입력장치부(300)는 사용자가 드론장치부(100) 및/또는 고글장치부(200)의 제어를 위한 신호를 입력하는 장치이다. 상기 입력장치부(300)에 입력된 신호에 의해 상기 드론장치부(100)의 비행과 소화탄 발사 등의 임무 수행이 제어될 수 있으며, 또한 상기 고글장치부(200)의 화면 표시 영역 등이 조작될 수 있다.The input device 300 is a device in which a user inputs a signal for controlling the drone device 100 and/or the goggles device 200 . According to the signal input to the input device unit 300, the flight of the drone device unit 100 and the performance of missions such as firing a fire extinguisher may be controlled, and the screen display area of the goggles device unit 200 may be displayed. can be manipulated.

도 6은 본 발명의 일 실시예에 의한 입력장치부(300)를 나타내는 도면을 도시한다. 한편, 본 발명에 의한 입력장치부(300)는 도면을 통해 나타난 바와 같이 독립적인 단말 장치로 구성될 수 있음은 물론, 도시된 것과는 별개로 고글장치부(200)에 일체로 내장되는 것일 수 있다.6 is a diagram illustrating an input device unit 300 according to an embodiment of the present invention. On the other hand, the input device unit 300 according to the present invention may be configured as an independent terminal device as shown in the drawings, and may be integrally built into the goggles device unit 200 separately from that shown. .

본 발명의 일 실시예에 의한 입력장치부(300)는 조작모듈(310)과 표시모듈(320)을 포함하는 것일 수 있다. 사용자는 상기 조작모듈(310)을 통해 소방 임무 수행을 위한 제어 신호를 입력 또는 조작할 수 있다. 또한, 상기 표시모듈(320)의 화면을 통하여 소방 임무 수행을 위한 정보를 제공받을 수 있으며, 상기 표시모듈(320)의 화면은 전술한 고글장치부(200)의 디스플레이 유닛(210)의 화면을 공유하는 것일 수 있다.The input device unit 300 according to an embodiment of the present invention may include a manipulation module 310 and a display module 320 . A user may input or manipulate a control signal for performing a firefighting mission through the operation module 310 . In addition, information for performing a firefighting mission may be provided through the screen of the display module 320 , and the screen of the display module 320 displays the screen of the display unit 210 of the goggles device 200 described above. may be sharing.

제어연산부(400)는 드론장치부(100), 고글장치부(200) 및 입력장치부(300)와 각각 별개로 통신하거나 또는 통신망을 형성하여 네트워크를 구축한다. 본 발명에 의한 제어연산부(400)는 서버 등을 통해 단말기 등 별개의 하드웨어 장치에 독립적으로 구성될 수 있음은 물론, 상기 드론장치부(100) 또는 고글장치부(200)에 내장되어 설치되는 소프트웨어일 수 있다.The control operation unit 400 establishes a network by separately communicating with the drone device unit 100 , the goggles device unit 200 , and the input device unit 300 , or forming a communication network. The control operation unit 400 according to the present invention may be independently configured in a separate hardware device such as a terminal through a server, etc., as well as software installed and installed in the drone device unit 100 or the goggles unit 200 can be

도 2 및 도 3에 도시된 바와 같이, 본 발명의 일 실시예에 의한 제어연산부(400)는, 통신모듈(410), 연산모듈(420), 제어모듈(430), 인터페이스모듈(440)을 포함할 수 있다.2 and 3 , the control operation unit 400 according to an embodiment of the present invention includes a communication module 410 , an operation module 420 , a control module 430 , and an interface module 440 . may include

통신모듈(410)은 신호 및/또는 정보 데이터를 송수신하는 역할을 한다. 보다 구체적으로 상기 통신모듈(410)은 센서 유닛(120)의 카메라센서(121)가 촬영한 영상 이미지 데이터는 물론, 상술한 다양한 실시예에 의한 센서 유닛(120)이 획득한 정보 데이터를 수신할 수 있다. 또한, 입력장치부(300)로부터 입력된 사용자의 신호 데이터를 수신할 수 있다. The communication module 410 serves to transmit and receive signals and/or information data. More specifically, the communication module 410 receives the image image data captured by the camera sensor 121 of the sensor unit 120, as well as the information data obtained by the sensor unit 120 according to the various embodiments described above. can In addition, the user's signal data input from the input device unit 300 may be received.

통신모듈(410)은 수신한 신호 및/또는 정보 데이터를 연산모듈(420)에 전송한다. 또한, 제어모듈(430)에 의해 생성된 제어 명령 신호 데이터를 드론장치부(100) 또는 입력장치부(300)에 송신한다.The communication module 410 transmits the received signal and/or information data to the operation module 420 . In addition, the control command signal data generated by the control module 430 is transmitted to the drone device 100 or the input device 300 .

연산모듈(420)은 수신한 데이터를 보정하기 위한 연산 알고리즘이 내장된 소프트웨어이며, 상기 연산 알고리즘은 임무수행 전 사용자에 의해 설정되는 것일 수 있다. 상기 연산모듈(420)은 내장된 연산 알고리즘에 의해 통신모듈(410)이 수신한 제1데이터를 보정하여, 드론장치부(100)의 적절한 임무 수행 제어를 위해 필요한 제2데이터를 산출한다. 예컨대 상기 연산모듈(420)이 임무수행 유닛(110)의 소화탄 발사 좌표와 표적 좌표의 조준 오차를 산출하여 정확한 소화탄 발사 정보를 제공함으로써, 사용자는 소방드론의 적절한 임무수행 제어를 할 수 있다. 이하, 각 실시예를 구체적으로 설명한다. The calculation module 420 is software having a built-in calculation algorithm for correcting the received data, and the calculation algorithm may be set by the user before performing the task. The arithmetic module 420 corrects the first data received by the communication module 410 by a built-in arithmetic algorithm, and calculates the second data required for proper task performance control of the drone device unit 100 . For example, the operation module 420 calculates the aiming error of the fire bomb launch coordinates and the target coordinates of the mission performance unit 110 to provide accurate fire bomb launch information, so that the user can control the appropriate task performance of the fire drone. . Hereinafter, each Example will be described concretely.

한편, 본 발명의 일실시예에 의해 연산모듈(420)에 적용되는 연산 알고리즘은 조준 좌표에 대한 데이터를 산출하기 위해 적용되는 다양한 연산 알고리즘이 제한 없이 선택될 수 있다. 이는 본 발명이 속하는 통상의 기술자에게 자명한 것이므로 자세한 설명은 생략한다.On the other hand, as the calculation algorithm applied to the calculation module 420 according to an embodiment of the present invention, various calculation algorithms applied to calculate data for aiming coordinates may be selected without limitation. Since this is obvious to those skilled in the art to which the present invention pertains, a detailed description thereof will be omitted.

본 발명의 일실시예에 의한 연산모듈(420)은, 제2데이터가 임무수행 유닛(110)의 소화탄 발사 좌표에 대한 정보를 포함하는 것일 수 있다. 즉, 상기 연산모듈(420)은 센서 유닛(120)의 상기 임무수행 유닛(110)의 상태 정보 데이터 및/또는 기상 정보 데이터를 포함하는 제1데이터를 보정하여, 상기 임무수행 유닛(110)이 조준하고 있는 소화탄 예상 탄착 지점(발사 좌표)에 대한 방향, 각도, 거리 등의 정보를 제2데이터로 산출할 수 있다.In the calculation module 420 according to an embodiment of the present invention, the second data may include information on the coordinates of firing a firearm of the mission performance unit 110 . That is, the operation module 420 corrects the first data including the state information data and/or weather information data of the mission execution unit 110 of the sensor unit 120, so that the mission execution unit 110 is Information such as a direction, an angle, and a distance to the expected impact point (launch coordinates) of a small projectile being aimed can be calculated as the second data.

본 발명의 일 실시예에 의한 연산모듈(420)은, 제1데이터가 입력장치부(300)로 입력된 표적 좌표의 선택 신호 데이터를 포함할 수 있으며, 제2데이터는 상기 소화탄 표적 좌표에 도달하기 위한 소화탄 발사 방향 및 각도, 표적까지의 거리 및 장애물 존재 유무를 나타내는 데이터 중 적어도 어느 하나 이상을 포함하는 것일 수 있다.The operation module 420 according to an embodiment of the present invention may include the selection signal data of the target coordinates input to the first data input device unit 300, the second data is the target coordinates of the fire munitions. It may include at least any one or more of data indicating the direction and angle of firing a firearm to reach, the distance to the target, and the presence or absence of an obstacle.

다시 말해, 사용자는 입력장치부(300)를 통해 화재 지역 중 소화탄의 표적 좌표를 선택하는 신호를 입력할 수 있으며, 이때 입력된 선택 신호 데이터는 연산모듈(420)에 전송된다. 상기 연산모듈(420)은 수신한 선택 신호 데이터를 포함하는 제1데이터를 기반으로 하여, 표적 좌표에 대한 정보 데이터를 연산한 제2데이터를 산출한다.In other words, the user may input a signal for selecting the target coordinates of a fire extinguisher in the fire area through the input device unit 300 , and the input selection signal data is transmitted to the operation module 420 . The calculation module 420 calculates second data obtained by calculating information data on the target coordinates based on the first data including the received selection signal data.

본 발명의 일 실시예에 의한 연산모듈(420)은, 발사된 소화탄에 대한 정보 데이터를 산출하는 것일 수 있다. 구체적으로 제1데이터는 발사된 소화탄의 위치 고도, 이동 속도 및 방향 중 적어도 어느 하나 이상의 정보를 포함하며, 제2데이터는 발사된 소화탄의 궤적 정보 또는 탄착 정보를 포함하는 것일 수 있다.The calculation module 420 according to an embodiment of the present invention may be to calculate information data on the fired fire munitions. Specifically, the first data may include at least any one or more information of the location, altitude, movement speed, and direction of the fired small projectiles, and the second data may include information about the trajectory or impact information of the fired small projectiles.

즉, 연산모듈(420)은 임무 수행을 위해 발사된 소화탄에 대한 궤적 또는 탄착 정보를 산출하여, 사용자에게 표적 지점에 대한 소화탄의 정확한 탄착 여부 및 소방 작업의 수행 정도에 대한 정보를 제공하는 것일 수 있다. That is, the calculation module 420 calculates the trajectory or impact information on the fire bomb fired for the purpose of performing the mission, and provides the user with information on whether the fire projectile has an accurate impact on the target point and the degree of firefighting work. it could be

제어모듈(430)은 드론장치부(100) 및/또는 입력장치부(300)에 대한 제어명령 신호를 생성한다. The control module 430 generates a control command signal for the drone device 100 and/or the input device 300 .

본 발명의 일 실시예에 의한 제어모듈(430)은 사용자가 입력장치부(300)에 제어 신호를 입력하는 경우, 연산모듈(420)로부터 산출된 제2데이터를 기반으로 하여 제어명령 신호를 생성하는 것일 수 있다. 즉, 제어모듈(430)은 사용자의 임무수행을 위한 제어입력 신호를 수신하여, 보정된 제어명령 신호를 생성하도록 시스템화되어, 사용자의 수동적인 제어에 대해 (반)자동적인 오차 보정이 이루어지는 것일 수 있다.When a user inputs a control signal to the input device unit 300 , the control module 430 according to an embodiment of the present invention generates a control command signal based on the second data calculated from the operation module 420 . may be doing That is, the control module 430 receives the control input signal for the user's task performance, and is systemized to generate a corrected control command signal, so that (semi)automatic error correction for the user's manual control may be performed. there is.

보다 구체적으로 본 발명의 일 실시예에 의한 제어모듈(430)은 임무수행 유닛(110)이 보정된 제2데이터에 의한 좌표를 향해 소화탄을 발사하도록 방향 및 각도를 조절하는 제어명령 신호를 생성하는 것일 수 있다. 즉, 사용자의 소화탄 발사 좌표 조준 오차를 보정한 소화탄 발사가 가능하도록 하는 것일 수 있다.More specifically, the control module 430 according to an embodiment of the present invention generates a control command signal for adjusting the direction and angle so that the mission execution unit 110 fires a fire bomb toward the coordinates according to the corrected second data. may be doing That is, it may be to enable the firing of small bullets by correcting the aiming error of the user's small bullet firing coordinates.

인터페이스모듈(440)은 고글장치부(200)의 디스플레이 유닛(210)과 센서 유닛(120)이 획득한 영상 이미지를 공유하되, 연산모듈(420)의 제1데이터 및 제2데이터가 선택적 또는 중첩적으로 화면에 표시되도록 한다. 즉, 상기 인터페이스모듈(440)은 카메라센서(121)가 실시간으로 촬영한 영상 이미지를 기반으로 화면을 구성하되, 상기 화면에는 상기 연산모듈(420)로부터의 데이터를 표시하여 사용자에게 정보를 전달하는 것일 수 있다. 더불어, 상기 인터페이스모듈(440)은 입력장치부(300)의 표시모듈(320)과도 같은 화면을 공유하는 것일 수 있다.The interface module 440 shares the image image acquired by the display unit 210 and the sensor unit 120 of the goggles device 200, but the first data and the second data of the operation module 420 are selectively or overlapped. to be displayed on the screen. That is, the interface module 440 configures a screen based on the video image captured by the camera sensor 121 in real time, and displays data from the operation module 420 on the screen to deliver information to the user. it could be In addition, the interface module 440 may share the same screen with the display module 320 of the input device unit 300 .

도 4는 도 1의 고글장치부(200)의 디스플레이 유닛(210)이 나타내는 화면을 나타낸 도면을, 도 5는 본 발명의 일 실시예에 의한 드론장치부(100)의 임무수행 상태를 나타내는 도면을 각각 도시한다.4 is a view showing a screen displayed by the display unit 210 of the goggles device 200 of FIG. 1 , and FIG. 5 is a view showing a mission performance state of the drone device 100 according to an embodiment of the present invention. are shown respectively.

도 4를 참조하여 설명하면, 본 발명의 일실시예에 의한 고글장치부(200)의 디스플레이 유닛(210)이 나타내는 화면은, 화재 현장에 대한 실시간 영상 이미지를 나타내는 제1영역(A), 드론장치부(100)의 정보 데이터가 표시되는 제2영역(B) 및 임무수행 유닛(110)의 발사좌표 및/또는 표적좌표에 대한 정보 데이터가 표시되는 제3영역(C)을 포함하도록 구성될 수 있다.Referring to FIG. 4 , the screen displayed by the display unit 210 of the goggles device 200 according to an embodiment of the present invention includes a first area A showing a real-time video image of a fire scene, a drone To be configured to include a second area (B) in which information data of the device unit 100 is displayed and a third area (C) in which information data on the launch coordinate and/or target coordinate of the mission performance unit 110 are displayed. can

제1영역(A)은 드론장치부(100)의 카메라센서(121)가 촬영하는 영상 이미지를 바탕으로 화재 현장 영상을 제공하며, 사용자는 입력장치부(300)의 조작모듈(310)을 통해 상기 카메라센서(121)가 촬영하는 시야 각도를 조절할 수 있다. The first area (A) provides a fire scene image based on the video image captured by the camera sensor 121 of the drone device unit 100, and the user through the operation module 310 of the input device unit 300 The viewing angle taken by the camera sensor 121 may be adjusted.

한편, 제1영역(A)에는 현 조준 상태에서 소화탄이 발사되는 경우에 소화탄이 도달할 것으로 예상되는 탄착지점을 발사좌표(b)를 중첩적으로 표시될 수 있다. 또한, 사용자가 입력장치부(300)를 통해 표적을 선택하는 입력을 하는 경우 상기 제1영역(A) 상에 임의의 표적좌표(a)를 선택할 수 있다.On the other hand, in the first area (A), the firing coordinates (b) may be displayed superimposed on an impact point at which a small projectile is expected to reach when the small projectile is fired in the current aiming state. Also, when the user inputs to select a target through the input device 300 , any target coordinates a on the first area A may be selected.

제2영역(B)은 드론장치부(100)의 비행 속도, 방향, 기울기, 위치 등의 데이터를 제공하며, 추가적으로 상기 드론장치부(100) 위치에서의 기상정보 데이터를 추가적으로 제공할 수 있다. 사용자는 상기 제2영역(B)에서 제공하는 데이터 등에 기반하여, 상기 드론장치부(100)의 적절한 비행을 제어할 수 있게 된다.The second area (B) provides data such as flight speed, direction, inclination, and position of the drone device unit 100 , and may additionally provide weather information data at the location of the drone device unit 100 . The user is able to control the appropriate flight of the drone device 100 based on the data provided in the second area (B).

제3영역(C)은 연산모듈(420)의 제1데이터와 제2데이터를 기반으로 하여, 임무수행 유닛(110)의 발사좌표 및/또는 표적좌표에 대한 데이터를 제공한다. 이때, 상기 제 3영역은 제1데이터를 표시하는 영역(c1)과 제2데이터를 표시하는 영역(c2)을 각각 구분하여 나타낼 수 있다.The third area C provides data on the launch coordinates and/or the target coordinates of the mission performance unit 110 based on the first data and the second data of the operation module 420 . In this case, the third area may be displayed separately from an area c1 displaying the first data and an area c2 displaying the second data.

즉, 제3영역(C)은 임무수행 유닛(110)의 현 조준 상태에서의 발사 좌표에 대한 거리 정보, 방위각, 기울기 등의 데이터를 제공하는 한편, 사용자가 입력한 표적 좌표에 대하여도 마찬가지의 데이터를 한눈에 비교할 수 있도록 동시에 제공할 수 있다. 상기 제3영역(C)으로부터의 데이터를 제공받은 사용자는, 발사 좌표에 대한 제1데이터와 표적 좌표에 대한 제2데이터가 일치하도록, 조준 오차를 보정하는 조작을 할 수 있게 된다.That is, the third area (C) provides data such as distance information, azimuth, and inclination for the launch coordinates in the current aiming state of the mission performance unit 110, while the same applies to the target coordinates input by the user. Data can be provided simultaneously for comparison at a glance. A user who has been provided with the data from the third region C may perform an operation of correcting the aiming error so that the first data on the firing coordinates and the second data on the target coordinates match.

이에 따라 도 5에 나타난 바와 같이 사용자는 드론장치부(100) 및/또는 임무수행 유닛(110)의 방위각, 고도, 기울기 등을 제어함으로써 원하는 탄착지점에 정확히 소화탄을 발사하도록 제어할 수 있다.Accordingly, as shown in FIG. 5 , the user can control to accurately fire a small projectile at a desired impact point by controlling the azimuth, altitude, inclination, etc. of the drone device unit 100 and/or the mission execution unit 110 .

전술한 다양한 실시예에 의하여 본 발명의 일 실시예에 의한 소방드론의 임무수행을 위한 고글타입의 인터페이스 장치는 표적의 좌표 정보, 드론 자세 정보, 임무모듈의 제원정보 등 다양한 변수에도 불구하고, 이를 종합적으로 고려하여 정밀한 소화탄 발사 가이드를 제공할 수 있게 된다. 이에 따라, 화재현장에서 무인비행체를 이용하는 조속한 현장 조치를 통해 화재의 조기 진압 및 확산 방지를 이룰 수 있다.In spite of various variables such as target coordinate information, drone posture information, and specification information of a mission module, the goggle-type interface device for performing a mission of a fire drone according to an embodiment of the present invention according to the various embodiments described above Comprehensive consideration will allow us to provide a precise guide for firing small firearms. Accordingly, it is possible to achieve early suppression and prevention of spread of fire through prompt on-site action using unmanned aerial vehicles at the fire site.

본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이지 않은 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Those of ordinary skill in the art to which the present invention pertains will understand that the present invention may be embodied in other specific forms without changing the technical spirit or essential features thereof. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

1: 화재현장(건물)
100: 드론장치부
110: 임무수행 유닛
120: 센서 유닛
121: 카메라센서
122: 운동센서
123: 기상센서
123a: 기압센서
124: 추적센서
200: 고글장치부
210: 디스플레이 유닛
300: 입력장치부
310: 조작모듈
320: 표시모듈
400: 제어연산부
410: 통신모듈
420: 연산모듈
430: 제어모듈
440: 인터페이스모듈
1: Fire scene (building)
100: drone device unit
110: mission unit
120: sensor unit
121: camera sensor
122: motion sensor
123: weather sensor
123a: barometric pressure sensor
124: tracking sensor
200: goggles device unit
210: display unit
300: input device unit
310: operation module
320: display module
400: control operation unit
410: communication module
420: operation module
430: control module
440: interface module

Claims (9)

소화탄 발사를 포함하는 소방임무를 수행하는 임무수행 유닛과, 영상 이미지 데이터를 획득하기 위한 카메라 센서를 포함하는 센서 유닛이 구비되는 드론장치부;
착용자의 시야 전방에 화면을 나타내는 디스플레이 유닛이 구비되는 고글장치부;
사용자가 신호를 입력할 수 있는 입력장치부; 및
상기 드론장치부, 상기 고글장치부 및 상기 입력장치부와 각각 통신하는 제어연산부를 포함하며,
상기 제어연산부는,
신호 또는 정보 데이터를 송수신하는 통신 모듈;
연산 알고리즘이 내장되어, 상기 통신모듈이 수신한 제1데이터를 제2데이터로 보정하는 연산 모듈;
상기 드론장치부 또는 상기 입력장치부에 대한 제어명령 신호를 생성하는 제어 모듈; 및
상기 디스플레이 유닛과 영상 이미지를 나타내는 화면을 공유하되, 상기 제1데이터 및 제2데이터가 선택적 또는 중첩적으로 화면에 표시되도록 하는 인터페이스모듈을 더 포함하는, 소방드론의 임무수행을 위한 고글타입의 인터페이스 장치.
A drone device unit provided with a mission performance unit for performing a firefighting mission including firing a fire extinguisher, and a sensor unit including a camera sensor for acquiring video image data;
a goggles device provided with a display unit displaying a screen in front of the wearer's field of vision;
an input device to which a user can input a signal; and
and a control operation unit communicating with the drone unit, the goggles unit, and the input unit, respectively,
The control operation unit,
a communication module for transmitting and receiving signals or information data;
a calculation module having a built-in calculation algorithm to correct the first data received by the communication module into second data;
a control module for generating a control command signal for the drone device unit or the input device unit; and
A goggle-type interface for performing a mission of a fire drone, which shares a screen displaying a video image with the display unit, but further includes an interface module for selectively or overlappingly displaying the first data and the second data on the screen Device.
제1항에 있어서,
상기 드론장치부는, 상기 임무수행 유닛의 소화탄 발사각과 상기 카메라센서의 촬영각이 독립적으로 조절되도록 설치되는 것을 특징으로 하는, 소방드론의 임무수행을 위한 고글타입의 인터페이스 장치.
According to claim 1,
The drone device unit, a goggle-type interface device for performing a mission of a fire drone, characterized in that it is installed so that the firing angle of the fire extinguisher and the shooting angle of the camera sensor of the mission performance unit are independently adjusted.
제1항에 있어서,
상기 센서 유닛은 자이로스코프 센서, 가속도 센서 및 기울기 센서 중 적어도 어느 하나 이상을 더 구비하는 운동센서를 더 포함하는 것을 특징으로 하는, 소방드론의 임무수행을 위한 고글타입의 인터페이스 장치.
According to claim 1,
The sensor unit is a goggle-type interface device for performing a mission of a fire drone, characterized in that it further comprises a motion sensor further comprising at least one of a gyroscope sensor, an acceleration sensor, and a tilt sensor.
제1항에 있어서,
상기 센서 유닛은 기압 정보 데이터를 측정하는 기압센서를 더 포함하는 것을 특징으로 하는, 소방드론의 임무수행을 위한 고글타입의 인터페이스 장치.
According to claim 1,
The sensor unit is a goggle-type interface device for performing a mission of a fire drone, characterized in that it further comprises a barometric pressure sensor for measuring barometric pressure information data.
제1항에 있어서,
상기 센서 유닛은 상기 임무수행 유닛이 발사한 소화탄에 대한 데이터를 획득하는 추적센서를 더 포함하는 것을 특징으로 하는, 소방드론의 임무수행을 위한 고글타입의 인터페이스 장치.
According to claim 1,
The sensor unit is a goggle-type interface device for the mission performance of the fire drone, characterized in that it further comprises a tracking sensor for acquiring data on the fire ammunition fired by the mission performance unit.
제1항 내지 제5항 중 어느 한 항에 있어서,
상기 연산모듈은,
상기 제2데이터가 상기 임무수행 유닛의 소화탄 발사 좌표에 대한 정보를 포함하는 것을 특징으로 하는, 소방드론의 임무수행을 위한 고글타입의 인터페이스 장치.
6. The method according to any one of claims 1 to 5,
The arithmetic module is
The second data is a goggle-type interface device for performing a mission of a fire drone, characterized in that it includes information about the coordinates of firing a fire extinguisher of the mission performance unit.
제6항에 있어서,
상기 연산모듈은,
상기 제1데이터는 상기 입력장치부로 입력된 표적 좌표의 선택 신호 데이터를 포함할 수 있으며,
상기 제2데이터가 상기 표적 좌표에 도달하기 위한 소화탄 발사 방향 및 각도, 표적까지의 거리 및 장애물 존재 유무를 나타내는 데이터 중 적어도 어느 하나 이상을 포함하는 것을 특징으로 하는, 소방드론의 임무수행을 위한 고글타입의 인터페이스 장치.
7. The method of claim 6,
The arithmetic module is
The first data may include selection signal data of target coordinates input to the input device unit,
For the mission performance of the fire drone, characterized in that the second data includes at least any one or more of data indicating the direction and angle of firing a fire extinguisher to reach the target coordinates, the distance to the target, and the presence or absence of obstacles Goggle-type interface device.
제7항에 있어서,
상기 제어 모듈은, 상기 임무수행 유닛에 대하여 소화탄을 상기 제2데이터에 의해 보정된 방향 및 각도로 발사하도록 하는 제어명령 신호를 생성하는 것을 특징으로 하는, 소방드론의 임무수행을 위한 고글타입의 인터페이스 장치.
8. The method of claim 7,
The control module is a goggle type for performing a mission of a fire drone, characterized in that it generates a control command signal for firing a fire bomb in a direction and an angle corrected by the second data to the mission performance unit. interface device.
제8항에 있어서,
상기 연산모듈은,
상기 제1데이터는 발사된 소화탄의 위치 고도, 이동 속도 및 방향 중 적어도 어느 하나 이상의 정보를 포함하며,
상기 제2데이터가 발사된 소화탄의 궤적 정보 또는 탄착 정보를 포함하는 것을 특징으로 하는, 소방드론의 임무수행을 위한 고글타입의 인터페이스 장치.
9. The method of claim 8,
The arithmetic module is
The first data includes at least any one or more information of the position, altitude, movement speed, and direction of the fired firearms,
The second data is a goggle-type interface device for performing a mission of a fire drone, characterized in that it includes information on the trajectory or impact information of the fired fire extinguisher.
KR1020200134021A 2020-10-16 2020-10-16 Goggle-type interface device for the mission of firefighting drone KR102449070B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200134021A KR102449070B1 (en) 2020-10-16 2020-10-16 Goggle-type interface device for the mission of firefighting drone

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200134021A KR102449070B1 (en) 2020-10-16 2020-10-16 Goggle-type interface device for the mission of firefighting drone

Publications (2)

Publication Number Publication Date
KR20220051053A true KR20220051053A (en) 2022-04-26
KR102449070B1 KR102449070B1 (en) 2022-10-04

Family

ID=81391395

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200134021A KR102449070B1 (en) 2020-10-16 2020-10-16 Goggle-type interface device for the mission of firefighting drone

Country Status (1)

Country Link
KR (1) KR102449070B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013091341A (en) * 2011-10-24 2013-05-16 Shinmaywa Industries Ltd Dispersion assistance apparatus and dispersion assistance method for aircraft
KR20150104364A (en) * 2014-03-05 2015-09-15 국방과학연구소 Emergence fire fighting apparatus for remote and inaccessible areas
KR101746945B1 (en) * 2015-09-23 2017-06-14 금오공과대학교 산학협력단 Manless flight device includes launcher for fire-fighting
KR20170111219A (en) * 2016-03-25 2017-10-12 한국전자통신연구원 Control server for monitoring fire with unmanned aerial vehicle and method thereof
KR101884906B1 (en) 2017-01-09 2018-08-02 삼성중공업 주식회사 Unmanned aero vehicle for fire extinguishing
KR20200109948A (en) * 2019-03-15 2020-09-23 농업법인회사 (유) 로하스 Construction site process management system using drone and construction site process management method using the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013091341A (en) * 2011-10-24 2013-05-16 Shinmaywa Industries Ltd Dispersion assistance apparatus and dispersion assistance method for aircraft
KR20150104364A (en) * 2014-03-05 2015-09-15 국방과학연구소 Emergence fire fighting apparatus for remote and inaccessible areas
KR101746945B1 (en) * 2015-09-23 2017-06-14 금오공과대학교 산학협력단 Manless flight device includes launcher for fire-fighting
KR20170111219A (en) * 2016-03-25 2017-10-12 한국전자통신연구원 Control server for monitoring fire with unmanned aerial vehicle and method thereof
KR101884906B1 (en) 2017-01-09 2018-08-02 삼성중공업 주식회사 Unmanned aero vehicle for fire extinguishing
KR20200109948A (en) * 2019-03-15 2020-09-23 농업법인회사 (유) 로하스 Construction site process management system using drone and construction site process management method using the same

Also Published As

Publication number Publication date
KR102449070B1 (en) 2022-10-04

Similar Documents

Publication Publication Date Title
US10114127B2 (en) Augmented reality visualization system
US9488442B2 (en) Anti-sniper targeting and detection system
US10048039B1 (en) Sighting and launching system configured with smart munitions
US8833231B1 (en) Unmanned range-programmable airburst weapon system for automated tracking and prosecution of close-in targets
CA2928840C (en) Interactive weapon targeting system displaying remote sensed image of target area
US20130192451A1 (en) Anti-sniper targeting and detection system
US10030931B1 (en) Head mounted display-based training tool
US10539393B2 (en) System and method for shooting simulation
US11015902B2 (en) System and method for marksmanship training
MX2013010196A (en) Firearm, aiming system therefor, method of operating the firearm and method of reducing the probability of missing a target.
WO2015029007A1 (en) Robotic system and method for complex indoor combat
KR20090034700A (en) Remote gunshot system and method to observed target
KR20130009894A (en) Unmanned aeriel vehicle for precision strike of short-range
US9671197B2 (en) Remotely operated target-processing system
WO2009064950A1 (en) System and method for adjusting a direction of fire
RU134624U1 (en) Fighting Vehicle Fire Control System
KR20150100125A (en) An unmanned preventing system
US11486677B2 (en) Grenade launcher aiming control system
KR102449070B1 (en) Goggle-type interface device for the mission of firefighting drone
US20230140441A1 (en) Target acquisition system for an indirect-fire weapon
RU2578524C2 (en) System for controlling integrated methods for combating small-sized unmanned aerial vehicles
KR20200045160A (en) Apparatus and method for controlling striking appartus and remote controlled weapon system
CN110290846B (en) Virtual battle processing method, server and movable platform
KR20220147175A (en) Control system and method of drone squadron for firefighting mission
KR102279384B1 (en) A multi-access multiple cooperation military education training system

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant