KR102612635B1 - Platform system for controlling autonomous unmanned vehicle - Google Patents

Platform system for controlling autonomous unmanned vehicle Download PDF

Info

Publication number
KR102612635B1
KR102612635B1 KR1020210126614A KR20210126614A KR102612635B1 KR 102612635 B1 KR102612635 B1 KR 102612635B1 KR 1020210126614 A KR1020210126614 A KR 1020210126614A KR 20210126614 A KR20210126614 A KR 20210126614A KR 102612635 B1 KR102612635 B1 KR 102612635B1
Authority
KR
South Korea
Prior art keywords
unmanned vehicle
mission
data
driving
control unit
Prior art date
Application number
KR1020210126614A
Other languages
Korean (ko)
Other versions
KR20230043571A (en
Inventor
김용덕
Original Assignee
주식회사 무지개연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 무지개연구소 filed Critical 주식회사 무지개연구소
Priority to KR1020210126614A priority Critical patent/KR102612635B1/en
Publication of KR20230043571A publication Critical patent/KR20230043571A/en
Application granted granted Critical
Publication of KR102612635B1 publication Critical patent/KR102612635B1/en

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0027Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement involving a plurality of vehicles, e.g. fleet or convoy travelling
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0022Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement characterised by the communication link
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0038Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/005Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with signals other than visual, e.g. acoustic, haptic
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Abstract

본 발명의 일 실시예에 따른 자율 무인이동체 관제 플랫폼 시스템은 무인이동체; 상기 무인이동체에 탑재되는 미션 컴퓨터; 상기 무인이동체를 개별 제어하는 지상 제어부; 상기 미션 컴퓨터 또는 상기 지상 제어부와 상기 무인이동체의 임무 또는 주행 관련 데이터를 주고 받거나 저장하는 데이터 허브; 및 상기 미션 컴퓨터 또는 상기 데이터 허브를 통해 상기 무인이동체의 임무 또는 주행 관련 데이터를 전달 받아 다수의 무인이동체의 주행 또는 임무를 실시간 모니터링하거나 제어하는 다중 관제부;를 포함하며, 상기 데이터 허브를 통해 상기 무인이동체에 대한 개별 임무 기록 또는 주행 기록을 확인하거나 기록할 수 있다.An autonomous unmanned vehicle control platform system according to an embodiment of the present invention includes an unmanned vehicle; A mission computer mounted on the unmanned vehicle; a ground control unit that individually controls the unmanned vehicle; a data hub that exchanges or stores data related to the mission or driving of the unmanned vehicle with the mission computer or the ground control unit; And a multi-control unit that receives data related to the mission or driving of the unmanned vehicle through the mission computer or the data hub and monitors or controls the driving or mission of a plurality of unmanned vehicles in real time, through the data hub. You can check or record individual mission records or driving records for unmanned vehicles.

Description

자율 무인이동체 관제 플랫폼 시스템{PLATFORM SYSTEM FOR CONTROLLING AUTONOMOUS UNMANNED VEHICLE}Autonomous unmanned vehicle control platform system {PLATFORM SYSTEM FOR CONTROLLING AUTONOMOUS UNMANNED VEHICLE}

본 발명의 실시예들은 자율 무인이동체 관제 플랫폼 시스템에 관한 것이다.Embodiments of the present invention relate to an autonomous unmanned vehicle control platform system.

초기 군사용으로 주로 활용되던 드론(Drone)은 조종사 없이 무선전파의 유도에 의해 비행과 조종이 가능한 무인 항공기로서, 그 간편성, 신속성, 경제성 등 여러 이점으로 인하여, 최근에는 군사용 외에도 물류 배송, 재난 구조, 방송 레저 등과 같은 다양한 분야에서 활용되고 있다.Drones, which were mainly used for military purposes in the early days, are unmanned aircraft that can fly and control by guidance of radio waves without a pilot. Due to its many advantages such as simplicity, speed, and economic efficiency, it has recently been used for logistics delivery, disaster relief, etc. in addition to military purposes. It is used in various fields such as broadcasting and leisure.

이처럼 드론의 여러 장점으로 인하여 그 활용과 보급이 확대되고 있지만, 바람 등 외부 환경의 변화와 운전 조작의 미숙으로 인해 추락하는 경우도 종종 발생되고 있으며, 이 경우 드론을 구성하는 고가의 부품들이 파손됨으로 인하여 상당한 경제적 피해를 입게 되는 문제점이 있었다.Although the use and distribution of drones is expanding due to their various advantages, cases of falling due to changes in the external environment such as wind and poor driving operation often occur, and in this case, expensive parts that make up the drone are damaged. There was a problem that resulted in significant economic damage.

그에 따라, 최근에는 인공지능에 의한 자동/자율 비행이 가능하게 한 스마트한 드론을 구현하고자 하는 시도들이 이루어지고 있으나, 이 경우 드론에서 자동 비행을 위해 구비해야 하는 다수의 센서나 통신 장치 또는 제어 모듈들의 구비를 위해 더 고가의 부품들이 사용될 수 밖에 없었는 바, 파손 시 겪게 되는 경제적 손실이 오히려 더 증가하게 될 우려가 생기는 문제점이 있었다.Accordingly, attempts have recently been made to implement smart drones that enable automatic/autonomous flight using artificial intelligence. However, in this case, a number of sensors, communication devices, or control modules must be provided in the drone for automatic flight. As more expensive parts had to be used to provide them, there was a concern that the economic loss suffered in case of damage would actually increase.

또한, 지금까지의 드론은 지상에서 무선 조종기를 이용하여 사용자가 조작하여야 하였는바, 카메라 등을 탑재하는 경우라 하더라도 조종이 가능한 범위가 사용자의 시야 범위 이내로 제한되는 한계가 있었으며, 그로 인하여 사용 지역이 한정되는 불편함이 있었다. 또한, 사용자의 시야가 확보된다 하더라도 무선 조종기와 드론 사이의 통신 거리 한계로 인하여 원거리 비행이 어려운 문제점이 있었다.In addition, drones so far had to be operated by the user using a wireless controller on the ground, and even when equipped with a camera, etc., the controllable range was limited to within the user's field of view, which resulted in the use area being limited. There was limited inconvenience. In addition, even if the user's field of view is secured, there is a problem in that long-distance flight is difficult due to limitations in the communication distance between the wireless controller and the drone.

또한, 기존의 드론은 GPS 정보를 활용한 자율 비행으로 사용자가 미리 지정한 경로로만 비행이 가능하였고, 비행 중 유지 고도는 비행 전 미리 지정된 고도를 유지하기 때문에 건물과 충돌 위험이 존재하였다. 아울러, 건물 회피 비행은 비전 또는 라이다 센서 등 추가 장치에 의존적이고 비행 금지 구역 회피 비행은 미리 지정된 구역에만 제한되는 문제가 있었다.In addition, existing drones can only fly on routes pre-designated by the user through autonomous flight using GPS information, and the maintained altitude during flight is maintained at the pre-designated altitude before flight, so there is a risk of collision with buildings. In addition, building avoidance flights depended on additional devices such as vision or lidar sensors, and no-fly zone avoidance flights were limited to pre-designated areas.

이에, 사용자의 조종 숙련도와 관계없이 지도상의 목적지만 입력하면 드론의 제어가 가능한 손쉬운 제어 기술(원-포인트 자율 비행)이 필요한 실정이며, 이와 더불어 드론이 임무를 수행하기 위해서는 비가시권의 원격지에서 5G/LTE 통신 기반의 장거리 비행이 요구되고 있다.Accordingly, there is a need for an easy control technology (one-point autonomous flight) that allows the drone to be controlled by simply entering the destination on the map, regardless of the user's piloting skill. In addition, in order for the drone to perform its mission, 5G must be installed in a remote location without visibility. /Long-distance flights based on LTE communication are required.

또한, 앞으로는 드론 뿐만 아니라 인간을 대신하여 다양한 임무를 수행하거나 보조하는 무인이동체에 대한 필요성이 점차 커지고 다양해 질 것으로 예상된다. 이러한 무인이동체를 운영함에 있어서 인간의 한계를 극복하고 인간을 보조하는 무인이동체의 목적을 달성하기 위해서는 무인이동체의 움직임 또는 임무를 모니터링하거나 제어하는 기술 뿐만 아니라 무인이동체가 획득한 다양한 데이터를 저장하고 분석하고 활용하는 기술이 필요하다.In addition, in the future, the need for not only drones but also unmanned vehicles that perform or assist various missions on behalf of humans is expected to gradually increase and become more diverse. In order to overcome human limitations in operating such unmanned vehicles and achieve the purpose of unmanned vehicles assisting humans, not only do we need technology to monitor or control the movements or missions of unmanned vehicles, but we also store and analyze various data acquired by unmanned vehicles. You need the skills to use it.

그런데, 현재는 무인이동체를 운영하기 위해 여러 사람이 필요하고 무인이동체가 획득한 각종 데이터를 저장하기 위해 메모리 카드 등 별도의 저장소를 무인이동체에 장착해야 하고 무인이동체에서 저장소를 분리해서 저장된 데이터를 데이터베이스에 옮기는 작업을 수행해야 하는 등 운영의 비효성과 데이터 획득/저장/활용에 절차적인 불편함이 존재한다.However, currently, several people are needed to operate an unmanned vehicle, and in order to store various data acquired by an unmanned vehicle, a separate storage such as a memory card must be installed on the unmanned vehicle, and the storage is separated from the unmanned vehicle and the stored data is stored in a database. There are operational inefficiencies and procedural inconveniences in data acquisition/storage/utilization, such as the need to transfer data to a new location.

따라서, 이러한 불편함을 해소하고 무인이동체의 운영 및 데이터 관리/활용까지 일괄적으로 수행할 수 있는 기술에 대한 니즈가 커지고 있는 상황이다.Accordingly, there is a growing need for technology that can eliminate these inconveniences and comprehensively perform operation of unmanned vehicles and data management/utilization.

관련 선행기술로는 대한민국 공개특허공제 제10-2017-0014817호(발명의 명칭: 드론 관제 방법 및 이를 수행하기 위한 장치 및 시스템과 드론 관제 서버, 공개일자: 2017.02.08)가 있다.Related prior art includes Korea Patent Publication No. 10-2017-0014817 (Title of invention: Drone control method and device and system for performing the same and drone control server, Publication date: 2017.02.08).

본 발명의 일 실시예는 무인이동체에 탑재하기만 하면 무인이동체의 주행을 제어하거나 모니터링할 수 있고 무인이동체가 획득하는 각종 데이터를 저장 및 관리하는 것이 가능한 자율 무인이동체 관제 플랫폼 시스템을 제공한다.An embodiment of the present invention provides an autonomous unmanned vehicle control platform system that can control or monitor the driving of an unmanned vehicle and store and manage various data acquired by the unmanned vehicle simply by mounting it on the unmanned vehicle.

본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제(들)로 제한되지 않으며, 언급되지 않은 또 다른 과제(들)은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the problem(s) mentioned above, and other problem(s) not mentioned will be clearly understood by those skilled in the art from the description below.

본 발명의 일 실시예에 따른 자율 무인이동체 관제 플랫폼 시스템은 무인이동체; 상기 무인이동체에 탑재되는 미션 컴퓨터; 상기 무인이동체를 개별 제어하는 지상 제어부; 상기 미션 컴퓨터 또는 상기 지상 제어부와 상기 무인이동체의 임무 또는 주행 관련 데이터를 주고 받거나 저장하는 데이터 허브; 및 상기 미션 컴퓨터 또는 상기 데이터 허브를 통해 상기 무인이동체의 임무 또는 주행 관련 데이터를 전달 받아 다수의 무인이동체의 주행 또는 임무를 실시간 모니터링하거나 제어하는 다중 관제부;를 포함하며, 상기 데이터 허브를 통해 상기 무인이동체에 대한 개별 임무 기록 또는 주행 기록을 확인하거나 기록할 수 있다.An autonomous unmanned vehicle control platform system according to an embodiment of the present invention includes an unmanned vehicle; A mission computer mounted on the unmanned vehicle; a ground control unit that individually controls the unmanned vehicle; a data hub that exchanges or stores data related to the mission or driving of the unmanned vehicle with the mission computer or the ground control unit; And a multi-control unit that receives data related to the mission or driving of the unmanned vehicle through the mission computer or the data hub and monitors or controls the driving or mission of a plurality of unmanned vehicles in real time, through the data hub. You can check or record individual mission records or driving records for unmanned vehicles.

상기 미션 컴퓨터는 상기 무인이동체에 탑재되거나 장착되는 비행 컨트롤러, 주행 카메라, 통신 모뎀, 미션 카메라, 카메라 짐벌 또는 머니퓰레이터와 연결되는 엣지 컴퓨팅 디바이스로 마련될 수 있다.The mission computer may be provided as an edge computing device connected to a flight controller, driving camera, communication modem, mission camera, camera gimbal, or manipulator mounted or mounted on the unmanned vehicle.

상기 미션 컴퓨터는 상기 무인이동체의 주행을 제어하거나 항법을 관제하거나 탑재되는 센서를 제어하거나 무선 통신에 의해 데이터를 송수신하거나 데이터를 처리하는 인공지능 컴퓨팅 디바이스로 마련될 수 있다.The mission computer may be provided as an artificial intelligence computing device that controls the driving of the unmanned vehicle, controls navigation, controls mounted sensors, transmits and receives data through wireless communication, or processes data.

상기 지상 제어부는 상기 미션 컴퓨터가 탑재된 상기 무인이동체를 개별적으로 실시간 조종하거나 관제하며, 상기 무인이동체를 모니터링하거나 상기 무인이동체로부터 주행 또는 임무 관련 데이터를 입수할 수 있다.The ground control unit individually controls or controls the unmanned vehicle equipped with the mission computer in real time, and may monitor the unmanned vehicle or obtain driving or mission-related data from the unmanned vehicle.

상기 지상 제어부는 원격제어모드, 지상제어모드 및 임무모드 중 어느 하나의 모드를 수행하여 상기 무인이동체를 제어하며, 상기 무인이동체의 직접 조종이 필요한 경우에 상기 지상제어모드를 수행하여 해당 무인이동체를 직접 조종할 수 있다.The ground control unit controls the unmanned vehicle by performing any one of a remote control mode, a ground control mode, and a mission mode, and when direct control of the unmanned vehicle is necessary, it performs the ground control mode to control the unmanned vehicle. You can control it directly.

상기 지상 제어부가 상기 임무모드에서 수행되는 경우, 상기 지상 제어부의 화면에 표시된 지도 상의 위치를 클릭하여 경로를 설정하면 해당 무인이동체가 해당 위치로 이동하거나 각 경로별 임무가 부여될 수 있다.When the ground control unit is operated in the mission mode, if a route is set by clicking on a location on the map displayed on the ground control unit's screen, the unmanned vehicle may move to the location or be assigned a mission for each route.

상기 지상 제어부가 상기 임무모드에서 수행되는 경우, 상기 무인이동체에 탑재된 카메라가 촬영한 이미지와 상기 지상 제어부의 화면에 표시된 지도가 서로 스와프되어 디스플레이 될 수 있다.When the ground control unit is performed in the mission mode, an image captured by a camera mounted on the unmanned vehicle and a map displayed on the screen of the ground control unit may be swapped with each other and displayed.

상기 지상 제어부와 각 무인이동체의 주행 또는 임무 관련 데이터를 주고 받거나 저장하는 클라우드 서버를 더 포함하며, 상기 클라우드 서버는 상기 데이터 허브와 연결되어 데이터를 주고 받을 수 있다.It further includes a cloud server that exchanges or stores driving or mission-related data of the ground control unit and each unmanned vehicle, and the cloud server is connected to the data hub to exchange data.

상기 데이터 허브를 통해 상기 클라우드 서버에 저장된 상기 무인이동체별 임무 데이터 또는 주행 데이터를 확인하거나 기록할 수 있다.Mission data or driving data for each unmanned vehicle stored in the cloud server can be confirmed or recorded through the data hub.

상기 데이터 허브는, 선택된 무인이동체의 주행 데이터 또는 임무 데이터를 시간별, 위치별 또는 경로별로 확인하거나, 선택된 무인이동체의 시간별, 위치별 또는 경로별 사진 데이터를 확인하거나, 선택된 무인이동체의 일별, 월별 또는 연별 통계 데이터를 확인할 수 있다.The data hub checks driving data or mission data of the selected unmanned vehicle by time, location, or route, checks photo data of the selected unmanned vehicle by time, location, or route, or checks the selected unmanned vehicle by day, month, or route. You can check annual statistical data.

상기 다중 관제부는 임무 수행 중인 모든 무인이동체의 정보를 실시간 통합 모니터링하거나 멀티비전 지원을 제공하여 각 무인이동체로부터 수신된 주행 데이터 또는 임무 데이터의 상세 모니터링을 제공할 수 있다.The multi-control unit may provide real-time integrated monitoring of information on all unmanned vehicles performing missions or provide multi-vision support to provide detailed monitoring of driving data or mission data received from each unmanned vehicle.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 첨부 도면들에 포함되어 있다.Specific details of other embodiments are included in the detailed description and accompanying drawings.

본 발명의 일 실시예에 따른 자율 무인이동체 관제 플랫폼 시스템은, 미션 컴퓨터를 무인이동체에 탑재함으로써 무인이동체의 주행을 제어하거나 모니터링할 수 있고 무인이동체가 획득하는 각종 데이터를 저장 및 관리할 수 있다.The autonomous unmanned vehicle control platform system according to an embodiment of the present invention can control or monitor the driving of the unmanned vehicle by mounting a mission computer on the unmanned vehicle, and can store and manage various data acquired by the unmanned vehicle.

또한, 본 발명의 일 실시예에 따른 자율 무인이동체 관제 플랫폼 시스템은 무인이동체의 주행 또는 임무와 관련된 많은 데이터를 빠른 속도로 획득할 수 있고 빅데이터화 함으로써 획득한 데이터를 다양한 목적에 따라 활용할 수 있다.In addition, the autonomous unmanned vehicle control platform system according to an embodiment of the present invention can acquire a lot of data related to the driving or mission of the unmanned vehicle at a high speed, and by converting it into big data, the acquired data can be utilized for various purposes.

도 1은 본 발명의 일 실시예에 따른 자율 무인이동체 관제 플랫폼 시스템의 필수 구성요소를 도시한 구성도이다.
도 2는 본 발명의 일 실시예에 따른 자율 무인이동체 관제 플랫폼 시스템의 구성을 예시적으로 도시한 도면이다.
도 3은 도 2에 따른 자율 무인이동체 관제 플랫폼 시스템의 미션 컴퓨터를 도시한 분해 사시도이다.
도 4는 도 2에 따른 자율 무인이동체 관제 플랫폼 시스템의 데이터 획득 및 활용 과정을 예시적으로 도시한 도면이다.
도 5 내지 도 9는 도 2에 따른 자율 무인이동체 관제 플랫폼 시스템의 지상 제어부를 설명하기 위한 도면이다.
도 10 내지 도 13은 도 2에 따른 자율 무인이동체 관제 플랫폼 시스템의 데이터 허브를 설명하기 위한 도면이다.
도 14 내지 도 16은 도 2에 따른 자율 무인이동체 관제 플랫폼 시스템의 다중 관제부를 설명하기 위한 도면이다.
Figure 1 is a configuration diagram showing essential components of an autonomous unmanned vehicle control platform system according to an embodiment of the present invention.
Figure 2 is a diagram illustrating the configuration of an autonomous unmanned vehicle control platform system according to an embodiment of the present invention.
Figure 3 is an exploded perspective view showing the mission computer of the autonomous unmanned vehicle control platform system according to Figure 2.
FIG. 4 is a diagram illustrating the data acquisition and utilization process of the autonomous unmanned vehicle control platform system according to FIG. 2.
Figures 5 to 9 are diagrams for explaining the ground control unit of the autonomous unmanned vehicle control platform system according to Figure 2.
Figures 10 to 13 are diagrams for explaining the data hub of the autonomous unmanned vehicle control platform system according to Figure 2.
Figures 14 to 16 are diagrams for explaining the multiple control units of the autonomous unmanned vehicle control platform system according to Figure 2.

본 발명의 이점 및/또는 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다.The advantages and/or features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various different forms, but the present embodiments only serve to ensure that the disclosure of the present invention is complete and are within the scope of common knowledge in the technical field to which the present invention pertains. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

또한, 이하 실시되는 본 발명의 바람직한 실시예는 본 발명을 이루는 기술적 구성요소를 효율적으로 설명하기 위해 각각의 시스템 기능구성에 기 구비되어 있거나, 또는 본 발명이 속하는 기술분야에서 통상적으로 구비되는 시스템 기능 구성은 가능한 생략하고, 본 발명을 위해 추가적으로 구비되어야 하는 기능 구성을 위주로 설명한다. 만약 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면, 하기에 도시하지 않고 생략된 기능 구성 중에서 종래에 기 사용되고 있는 구성요소의 기능을 용이하게 이해할 수 있을 것이며, 또한 상기와 같이 생략된 구성 요소와 본 발명을 위해 추가된 구성 요소 사이의 관계도 명백하게 이해할 수 있을 것이다.In addition, the preferred embodiments of the present invention to be implemented below are provided in each system function configuration in order to efficiently explain the technical components constituting the present invention, or system functions commonly provided in the technical field to which the present invention pertains. The configuration will be omitted whenever possible, and the description will focus on the functional configuration that must be additionally provided for the present invention. If a person has ordinary knowledge in the technical field to which the present invention pertains, he or she will be able to easily understand the functions of conventionally used components among the functional configurations not shown and omitted below, as well as the omitted configurations as described above. The relationships between elements and components added for the present invention will also be clearly understood.

또한, 이하의 설명에 있어서, 신호 또는 정보의 "전송", "통신", "송신", "수신" 기타 이와 유사한 의미의 용어는 일 구성요소에서 다른 구성요소로 신호 또는 정보가 직접 전달되는 것뿐만이 아니라 다른 구성요소를 거쳐 전달되는 것도 포함한다. 특히 신호 또는 정보를 일 구성요소로 "전송" 또는 "송신"한다는 것은 그 신호 또는 정보의 최종 목적지를 지시하는 것이고 직접적인 목적지를 의미하는 것이 아니다. 이는 신호 또는 정보의 "수신"에 있어서도 동일하다.In addition, in the following description, "transmission", "communication", "transmission", "reception" and other similar terms of signals or information refer to the direct transmission of signals or information from one component to another component. In addition, it also includes those transmitted through other components. In particular, “transmitting” or “transmitting” a signal or information as a component indicates the final destination of the signal or information and does not mean the direct destination. This is the same for “receiving” signals or information.

이하에서는 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명의 일 실시예에 따른 자율 무인이동체 관제 플랫폼 시스템의 필수 구성요소를 도시한 구성도, 도 2는 본 발명의 일 실시예에 따른 자율 무인이동체 관제 플랫폼 시스템의 구성을 예시적으로 도시한 도면, 도 3은 도 2에 따른 자율 무인이동체 관제 플랫폼 시스템의 미션 컴퓨터를 도시한 분해 사시도, 도 4는 도 2에 따른 자율 무인이동체 관제 플랫폼 시스템의 데이터 획득 및 활용 과정을 예시적으로 도시한 도면, 도 5 내지 도 9는 도 2에 따른 자율 무인이동체 관제 플랫폼 시스템의 지상 제어부를 설명하기 위한 도면, 도 10 내지 도 13은 도 2에 따른 자율 무인이동체 관제 플랫폼 시스템의 데이터 허브를 설명하기 위한 도면, 도 14 내지 도 16은 도 2에 따른 자율 무인이동체 관제 플랫폼 시스템의 다중 관제부를 설명하기 위한 도면이다.Figure 1 is a configuration diagram showing essential components of an autonomous unmanned vehicle control platform system according to an embodiment of the present invention, and Figure 2 is an exemplary configuration of an autonomous unmanned vehicle control platform system according to an embodiment of the present invention. 3 is an exploded perspective view showing the mission computer of the autonomous unmanned vehicle control platform system according to FIG. 2, and FIG. 4 exemplarily shows the data acquisition and utilization process of the autonomous unmanned vehicle control platform system according to FIG. 2. 5 to 9 are diagrams for explaining the ground control unit of the autonomous unmanned vehicle control platform system according to FIG. 2, and FIGS. 10 to 13 are diagrams for explaining the data hub of the autonomous unmanned vehicle control platform system according to FIG. 2. 14 to 16 are diagrams for explaining the multiple control units of the autonomous unmanned vehicle control platform system according to FIG. 2.

도 1 및 도 2를 참조하면, 본 발명의 일 실시예에 따른 자율 무인이동체 관제 플랫폼 시스템(10, 이하 "시스템"이라 함)은 미션 컴퓨터(110), 지상 제어부(120), 데이터 허브(130) 및 다중 관제부(140)를 포함할 수 있다. 이와 같은, 본 발명의 일 실시예에 따른 시스템(10)은 무인이동체(200)의 오토파일럿(auto-pilot), 원격관제(remote control), 빅데이터(big-data)화를 수행할 수 있는 소프트웨어 및 하드웨어를 포함할 수 있다.1 and 2, the autonomous unmanned vehicle control platform system 10 (hereinafter referred to as “system”) according to an embodiment of the present invention includes a mission computer 110, a ground control unit 120, and a data hub 130. ) and a multiple control unit 140. As such, the system 10 according to an embodiment of the present invention is capable of performing auto-pilot, remote control, and big data of the unmanned vehicle 200. May include software and hardware.

여기서, 무인이동체(200)는 UMV(UnManned Vehicle)로서 드론(Drone), 로봇(Robot), 무인차량(UGV; Unmanned Ground Vehicle), 무인수상정(USV; Unmanned Surface Vehicle) 또는 무인잠수정(UUV; Unmanned Underwater Vehicle)을 포함하는 개념이다. 이하에서는 설명의 편의를 위해 무인이동체가 주로 드론인 경우에 대해서 설명하겠지만, 무인이동체가 드론에 한정되는 것은 아님을 밝혀둔다.Here, the unmanned vehicle 200 is an unmanned vehicle (UMV), such as a drone, a robot, an unmanned ground vehicle (UGV), an unmanned surface vehicle (USV), or an unmanned underwater vehicle (UUV); It is a concept that includes Unmanned Underwater Vehicle. Below, for convenience of explanation, the case where the unmanned vehicle is mainly a drone will be explained, but it should be noted that the unmanned vehicle is not limited to drones.

도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 자율 무인이동체 관제 플랫폼 시스템(10)은 무인이동체(200); 무인이동체(200)에 탑재되는 미션 컴퓨터(110); 무인이동체(200)를 개별 제어하는 지상 제어부(120); 미션 컴퓨터(110) 또는 지상 제어부(120)와 무인이동체(200)의 임무 또는 주행 관련 데이터를 주고 받거나 저장하는 데이터 허브(130); 및 미션 컴퓨터(110) 또는 데이터 허브(130)를 통해 무인이동체(200)의 임무 또는 주행 관련 데이터를 전달 받아 다수의 무인이동체(200)의 주행 또는 임무를 실시간 모니터링하거나 제어하는 다중 관제부(140);를 포함할 수 있다.As shown in Figure 2, the autonomous unmanned vehicle control platform system 10 according to an embodiment of the present invention includes an unmanned vehicle 200; A mission computer (110) mounted on the unmanned vehicle (200); a ground control unit 120 that individually controls the unmanned vehicle 200; A data hub 130 that exchanges or stores mission or driving-related data between the mission computer 110 or the ground control unit 120 and the unmanned vehicle 200; And a multi-control unit (140) that receives mission or driving-related data of the unmanned vehicle 200 through the mission computer 110 or data hub 130 and monitors or controls the driving or mission of a plurality of unmanned vehicles 200 in real time. ); may be included.

여기서, 데이터 허브(130)를 통해 무인이동체(200)에 대한 개별 임무 기록(데이터) 또는 주행 기록(데이터)을 확인하거나 기록할 수 있다.Here, individual mission records (data) or driving records (data) for the unmanned vehicle 200 can be confirmed or recorded through the data hub 130.

상기 미션 컴퓨터(110)는 무인이동체(200)에 탑재되거나 장착되는 비행 컨트롤러(210, flight controller), 주행 카메라(220, black-box camera), 통신 모뎀(230, communication modem), 미션 카메라(mission camera), 카메라 짐벌(240, camera gimbal) 또는 머니퓰레이터(250, manipulator)와 연결되는 엣지 컴퓨팅 디바이스(edge computing device)로 마련될 수 있다. 즉, 미션 컴퓨터(110)는 스스로 판단하고 무인이동체(200)의 행동을 제어하며 무인이동체(200)가 획득한 각종 데이터를 무선 통신에 의해 전송하고 데이터를 분석 및 활용할 수 있는 엣지 컴퓨팅 디바이스(edge computing device) 내지 인공지능 컴퓨터(AI computer)의 형태로 마련되는 지능형 임무 핵심부품(Intelligent Mission Core)이다.The mission computer 110 includes a flight controller (210), a black-box camera (220), a communication modem (230), and a mission camera (210) mounted on or mounted on the unmanned vehicle (200). It may be provided as an edge computing device connected to a camera), a camera gimbal (240), or a manipulator (250). In other words, the mission computer 110 is an edge computing device that makes its own decisions, controls the actions of the unmanned vehicle 200, transmits various data acquired by the unmanned vehicle 200 through wireless communication, and analyzes and utilizes the data. It is an intelligent mission core that is prepared in the form of a computing device or AI computer.

상기 미션 컴퓨터(110)는 무인이동체(200)의 주행을 제어하고 각종 임무를 수행하며 주행 또는 임무 데이터를 획득하고 전송하는 소프트웨어가 탑재된 하드웨어이다.The mission computer 110 is hardware equipped with software that controls the driving of the unmanned vehicle 200, performs various missions, and acquires and transmits driving or mission data.

본 발명의 일 실시예에 따른 시스템(10)은 종류 또는 기종에 상관없이 무인이동체(200)에 미션 컴퓨터(110)를 탑재하고 각종 케이블을 연결하기만 하면 자율 무인이동체(200)의 주행을 관제하고 각종 임무를 수행할 수 있다. 즉, 미션 컴퓨터(110)를 무인이동체(200)에 탑재하는 것으로 충분하고, 별도의 관제 소프트웨어를 설치하거나 조종 또는 관제 하드웨어를 구비해야 할 필요가 없다.The system 10 according to an embodiment of the present invention controls the driving of the autonomous unmanned vehicle 200 by simply mounting the mission computer 110 on the unmanned vehicle 200 and connecting various cables, regardless of the type or model. and can perform various tasks. In other words, it is sufficient to mount the mission computer 110 on the unmanned vehicle 200, and there is no need to install separate control software or provide control or control hardware.

이러한 미션 컴퓨터(110)는 무인이동체(200)의 주행을 제어하거나 항법을 관제하거나 탑재되는 센서를 제어하거나 무선 통신에 의해 데이터를 송수신하거나 데이터를 처리하는 인공지능 컴퓨팅 디바이스로 마련될 수 있다.This mission computer 110 may be provided as an artificial intelligence computing device that controls the driving of the unmanned vehicle 200, controls navigation, controls mounted sensors, transmits and receives data through wireless communication, or processes data.

무인이동체(200)에는 무인이동체(200)의 비행 또는 주행을 제어하는 비행 컨트롤러(210)가 설치될 수 있다. 무인이동체(200)가 드론인 경우에 비행 컨트롤러(210)는 FCC(Flight Control Computer)로 마련될 수 있다.A flight controller 210 that controls the flight or driving of the unmanned vehicle 200 may be installed on the unmanned vehicle 200. When the unmanned vehicle 200 is a drone, the flight controller 210 may be provided as a flight control computer (FCC).

무인이동체(200)에는 무인이동체(200)의 주행 또는 비행 경로 상의 상황 또는 환경을 실시간으로 촬영하는 주행 카메라(220)가 설치될 수 있다. 주행 카메라(220)는 블랙박스와 같은 주행기록장치의 역할을 한다. The unmanned vehicle 200 may be equipped with a driving camera 220 that photographs the situation or environment on the driving or flight path of the unmanned vehicle 200 in real time. The driving camera 220 functions as a driving recording device like a black box.

본 발명의 일 실시예에 따른 시스템(10)을 통해서 운영되는 무인이동체(200)는 주행 카메라(220)를 이용하여 임무와 관련된 사진을 촬영할 수도 있지만, 임무 관련 사진 또는 이미지를 획득하기 위한 미션 카메라(미도시)를 별도로 구비하는 것이 바람직하다. 상기 미션 카메라를 무인이동체(200)에 장착된 상태에서 다양한 사진을 촬영할 수 있도록 장착 상태가 고정되면 안 되고 미션 카메라가 움직일 수 있도록 무인이동체(200)에 탑재되어야 한다. 이를 위해 미션 카메라는 카메라 짐벌(240)에 장착되는 것이 바람직하다. 카메라 짐벌(240)은 미션 카메라의 회전 또는 각도 조절이 가능하도록 모터와 같은 짐벌 구동부(미도시)를 구비할 수 있다.The unmanned vehicle 200 operated through the system 10 according to an embodiment of the present invention may take mission-related photos using the driving camera 220, but the mission camera is used to acquire mission-related photos or images. It is desirable to separately provide (not shown). In order to be able to take various pictures while the mission camera is mounted on the unmanned vehicle 200, the mounting state should not be fixed, but the mission camera must be mounted on the unmanned vehicle 200 so that it can move. For this purpose, the mission camera is preferably mounted on the camera gimbal 240. The camera gimbal 240 may be provided with a gimbal driving unit (not shown) such as a motor to enable rotation or angle adjustment of the mission camera.

또한, 무인이동체(200)는 특수한 임무 또는 작업을 수행할 수 있도록 머니퓰레이터(250)를 구비할 수 있다. 예를 들어, 무인이동체(200)가 무인 굴삭기인 경우 머니퓰레이터(250)는 굴삭 작업을 하는 버킷이 될 수 있다.Additionally, the unmanned vehicle 200 may be equipped with a manipulator 250 to perform a special mission or task. For example, if the unmanned mobile device 200 is an unmanned excavator, the manipulator 250 may be a bucket that performs excavation work.

무인이동체(200)에는 주행 카메라(220), 미션 카메라 등으로 촬영한 사진 또는 이미지, 무인이동체(200)에 장착된 각종 센서에서 취득한 데이터를 클라우드 서버(150) 또는 데이터 허브(160)로 전송하기 위한 통신 모뎀(230)이 탑재될 수 있다. 통신 모뎀(230)은 무선 통신부(160)와 통신함으로써 무인이동체(200)의 각종 데이터를 무선으로 전송할 수 있다. 통신 모뎀(230) 및 무선 통신부(160)는 5G 또는 LTE 방식으로 무선 통신을 할 수 있기 때문에 원거리에서도 통신이 가능하다.In the unmanned vehicle 200, photos or images taken with a driving camera 220, a mission camera, etc., and data acquired from various sensors mounted on the unmanned vehicle 200 are transmitted to the cloud server 150 or data hub 160. A communication modem 230 may be mounted for this purpose. The communication modem 230 can wirelessly transmit various data of the unmanned vehicle 200 by communicating with the wireless communication unit 160. Since the communication modem 230 and the wireless communication unit 160 are capable of wireless communication using 5G or LTE, communication is possible even over a long distance.

본 발명의 일 실시예에 따른 시스템(10)은 미션 컴퓨터(110)를 무인이동체(200)에 탑재하고 미션 컴퓨터(110)와 비행 컨트롤러(210), 주행 카메라(220), 통신 모뎀(230), 상기 미션 카메라, 카메라 짐벌(240) 또는 머니퓰레이터(250)를 케이블로 연결해 주기만 하면 미션 컴퓨터(110)를 통해서 비행 컨트롤러(210), 주행 카메라(220), 통신 모뎀(230), 상기 미션 카메라, 카메라 짐벌(240) 또는 머니퓰레이터(250)를 모니터링하거나 제어할 수 있다. The system 10 according to an embodiment of the present invention mounts the mission computer 110 on the unmanned vehicle 200 and includes the mission computer 110, a flight controller 210, a driving camera 220, and a communication modem 230. , simply by connecting the mission camera, camera gimbal 240 or manipulator 250 with a cable, the flight controller 210, the driving camera 220, the communication modem 230, the mission camera, The camera gimbal 240 or manipulator 250 can be monitored or controlled.

도 3을 참조하면, 미션 컴퓨터(110)는 탑케이스(111), 임베디드 컴퓨팅 보드(113), 캐리어 보드(115), 비디오 캡쳐 보드(117) 및 바텀케이스(119)를 포함할 수 있다. Referring to FIG. 3, the mission computer 110 may include a top case 111, an embedded computing board 113, a carrier board 115, a video capture board 117, and a bottom case 119.

탑케이스(111) 및 바텀케이스(119)는 각각 미션 컴퓨터(110)의 상부 및 하부에 위치하는 케이스로서, 탑케이스(111)는 미션 컴퓨터(110)에서 발생하는 열을 냉각시킬 수 있다. 이를 위해 탑케이스(111)에는 방열핀 또는 냉각팬(112)이 마련될 수 있다. 탑케이스(111)의 방열 기능으로 인해 미션 컴퓨터(110)는 -50℃~70℃의 온도 범위 내에서 작동할 수 있다. 한편, 바텀케이스(119)는 무인이동체(200)와 연결되는 부분이다.The top case 111 and the bottom case 119 are cases located at the top and bottom of the mission computer 110, respectively. The top case 111 can cool the heat generated by the mission computer 110. For this purpose, heat dissipation fins or cooling fans 112 may be provided in the top case 111. Due to the heat dissipation function of the top case 111, the mission computer 110 can operate within a temperature range of -50°C to 70°C. Meanwhile, the bottom case 119 is a part connected to the unmanned vehicle 200.

임베디드 컴퓨팅 보드(113)는 미션 컴퓨터(110)의 중앙처리장치(CPU)의 역할을 하는 부분이다. The embedded computing board 113 is a part that functions as a central processing unit (CPU) of the mission computer 110.

캐리어 보드(115)는 미션 컴퓨터(110)와 무인이동체(200)의 비행 컨트롤러(210), 주행 카메라(220), 통신 모뎀(230), 상기 미션 카메라, 카메라 짐벌(240) 또는 머니퓰레이터(250)를 연결하는 부분이다. The carrier board 115 includes a mission computer 110, a flight controller 210 of the unmanned vehicle 200, a driving camera 220, a communication modem 230, the mission camera, a camera gimbal 240, or a manipulator 250. It is the part that connects.

도 3에 도시된 바와 같이, 캐리어 보드(115)의 가장자리에 형성된 소켓들(①~⑬)은 무인이동체(200)의 비행 컨트롤러(210), 주행 카메라(220), 통신 모뎀(230), 상기 미션 카메라, 카메라 짐벌(240) 또는 머니퓰레이터(250)를 케이블로 연결하기 위한 부분이다. 즉, 무인이동체(200)의 비행 컨트롤러(210), 주행 카메라(220), 통신 모뎀(230), 상기 미션 카메라, 카메라 짐벌(240) 또는 머니퓰레이터(250)와 캐리어 보드(115)의 소켓들(①~⑬)을 케이블로 연결하기만 하면 미션 컴퓨터(110)가 비행 컨트롤러(210), 주행 카메라(220), 통신 모뎀(230), 상기 미션 카메라, 카메라 짐벌(240) 또는 머니퓰레이터(250)를 제어하거나 모니터링 할 수 있다.As shown in FIG. 3, the sockets ① to ⑬ formed on the edge of the carrier board 115 are the flight controller 210 of the unmanned vehicle 200, the traveling camera 220, the communication modem 230, and the above. This is a part for connecting the mission camera, camera gimbal (240), or manipulator (250) with a cable. That is, the flight controller 210, the driving camera 220, the communication modem 230, the mission camera, the camera gimbal 240 or the manipulator 250 of the unmanned vehicle 200, and the sockets of the carrier board 115 ( Simply connect ① to ⑬ with a cable, and the mission computer 110 can control the flight controller 210, the driving camera 220, the communication modem 230, the mission camera, the camera gimbal 240, or the manipulator 250. It can be controlled or monitored.

본 발명의 일 실시예에 따른 시스템(10)의 미션 컴퓨터(110)는 크기가 가로 90mm, 세로 68mm, 높이 55mm 정도로 작고, 무게는 300g 정도로 가볍기 때문에 소형의 무인이동체(200)에 장착하기 용이하고 무인이동체(200)의 주행에 장착 하중으로 인한 영향을 주지 않는다.The mission computer 110 of the system 10 according to an embodiment of the present invention is small in size, about 90 mm wide, 68 mm long, and 55 mm high, and weighs about 300 g, so it is easy to mount on a small unmanned vehicle 200. The running of the unmanned vehicle 200 is not affected by the mounting load.

도 2를 참조하면, 본 발명의 일 실시예에 따른 시스템(10)은 미션 컴퓨터(110)가 탑재된 무인이동체(200)를 개별적으로 실시간 조종하거나 관제하며, 무인이동체(200)를 모니터링하거나 무인이동체(200)로부터 주행 또는 임무 관련 데이터를 입수할 수 있는 지상 제어부(120)를 포함할 수 있다.Referring to FIG. 2, the system 10 according to an embodiment of the present invention individually controls or controls the unmanned vehicle 200 equipped with the mission computer 110 in real time, and monitors the unmanned vehicle 200 or controls the unmanned vehicle 200. It may include a ground control unit 120 that can obtain driving or mission-related data from the mobile object 200.

상기 지상 제어부(120)는 무인이동체(200)마다 개별적으로 각각 구비될 수 있다. 지상 제어부(120)는 개별적인 무인이동체(200)에 제공되거나 연결되어 무인이동체(200)를 원격으로 제어할 수 있는 소프트웨어(GCS; Ground Control Software) 또는 하드웨어의 형태로 제공될 수 있다.The ground control unit 120 may be individually provided for each unmanned vehicle 200. The ground control unit 120 may be provided in the form of software (GCS; Ground Control Software) or hardware that can be provided to an individual unmanned vehicle 200 or connected to remotely control the unmanned vehicle 200.

지상 제어부(120)를 통해 원거리에 있는 무인이동체(200)에 탑재되어 있는 미션 컴퓨터(110)를 실시간으로 관제할 수 있다. 여기서, 관제는 모니터링, 제어, 이벤트, 각종 데이터 수집을 포함하는 개념이다.The mission computer 110 mounted on the unmanned vehicle 200 at a distance can be controlled in real time through the ground control unit 120. Here, control is a concept that includes monitoring, control, events, and various data collection.

도 5에는 지상 제어부(120)의 디스플레이부에 표시되는 화면이 예시적으로 도시되어 있다. 도 5를 참조하면, 지상 제어부(120)는 해당 무인이동체(200)의 위치를 포함하는 지도(121)를 기본적으로 보여준다. 지상 제어부(120)는 지도(121) 상에 표시된 무인이동체(200)에 대해서 주행을 제어하고 임무 동작을 제어하거나 모니터링한다.FIG. 5 shows an exemplary screen displayed on the display unit of the ground control unit 120. Referring to FIG. 5, the ground control unit 120 basically displays a map 121 including the location of the unmanned vehicle 200. The ground control unit 120 controls the driving of the unmanned vehicle 200 displayed on the map 121 and controls or monitors mission operations.

지상 제어부(120)는 무인이동체(200)의 미션 카메라가 촬영하고 있는 이미지 또는 영상을 지도(121) 상에 표시할 수 있다. 도 5를 참조하면, 미션 카메라에 의한 영상은 지도(121)의 하단부에 표시되어 있다.The ground control unit 120 may display the image or video captured by the mission camera of the unmanned vehicle 200 on the map 121. Referring to FIG. 5, the image from the mission camera is displayed at the bottom of the map 121.

지상 제어부(120)는 무인이동체(200)의 고도(123a, altitude), 비행모드(123b)를 제어하고 화면에 표시할 수 있다. 또한, 지상 제어부(120)는 무인이동체(200)의 자세(123c) 및 추력(123d)을 제어하고 화면에 표시할 수 있다. 무인이동체(200)가 드론인 경우 무인이동체(200)의 피치(pitch), 요(yaw), 롤(roll) 및 추력(throttle)을 제어하고 표시할 수 있다.The ground control unit 120 can control the altitude (123a) and flight mode (123b) of the unmanned vehicle 200 and display them on the screen. Additionally, the ground control unit 120 can control the posture 123c and thrust 123d of the unmanned vehicle 200 and display them on the screen. If the unmanned vehicle 200 is a drone, the pitch, yaw, roll, and thrust of the unmanned vehicle 200 can be controlled and displayed.

또한, 지상 제어부(120)는 무인이동체(200)의 위도, 경도, 방향(124a,124b,124c)을 제어하거나 화면에 표시할 수 있다. 지상 제어부(120)는 무인이동체(200)의 무선 통신 감도(125a), 출력 전압(125b), 배터리 충전 상태(125c), 위성항법상태(125d)를 화면에 표시할 수 있다.Additionally, the ground control unit 120 can control the latitude, longitude, and direction 124a, 124b, and 124c of the unmanned vehicle 200 or display them on the screen. The ground control unit 120 can display the wireless communication sensitivity (125a), output voltage (125b), battery charge status (125c), and satellite navigation status (125d) of the unmanned vehicle 200 on the screen.

도 5에 도시된 바와 같이, 지상 제어부(120)는 관제 대상 무인이동체(200)의 주행 상태, 자세, 임무 동작을 제어할 뿐만 아니라 화면에 표시함으로써 무인이동체(200)의 원격 제어 상태를 직관적으로 파악할 수 있다. 또한, 무인이동체(200)의 기체 상태를 실시간으로 파악할 수 있기 때문에 임무 수행이 가능한 상태인지 불가능한 상태인지에 대해서도 화면에 제시된 정보를 통해서 정확하고 신속하게 파악할 수 있다.As shown in FIG. 5, the ground control unit 120 not only controls the driving state, posture, and mission operation of the unmanned vehicle 200 to be controlled, but also displays the remote control status of the unmanned vehicle 200 on the screen to intuitively display the remote control status of the unmanned vehicle 200. It can be figured out. In addition, because the state of the unmanned vehicle 200 can be checked in real time, it is possible to accurately and quickly determine whether mission performance is possible or impossible through the information presented on the screen.

상기 지상 제어부(120)는 비행모드(123b)를 선택하여 원격제어모드(Remote Control Mode), 지상제어모드(Ground Control Software Mode) 및 임무모드(Mission Mode) 중 어느 하나의 모드를 수행할 수 있다. 여기서, 원격제어모드는 조종기(예를 들면, 조이스틱)를 통해서 해당 무인이동체(200)를 사람이 직접 조종하는 모드이고, 지상제어모드는 지상 제어부(120)의 도 5와 같은 화면을 통해서 무인이동체(200)를 직접 조종하는 모드이다.The ground control unit 120 can select the flight mode 123b to perform any one of remote control mode, ground control software mode, and mission mode. . Here, the remote control mode is a mode in which a person directly controls the unmanned vehicle 200 through a controller (e.g., a joystick), and the ground control mode is a mode in which a person controls the unmanned vehicle 200 through a screen as shown in FIG. 5 of the ground control unit 120. This is a mode that directly controls (200).

이와 같이, 지상 제어부(120)는 비행모드(123b)의 변경을 통해서 무인이동체(200)의 비행 상태를 제어할 수 있고, 무인이동체(200)의 직접 조종이 필요한 경우에 지상 제어부(120)는 지상제어모드를 수행하여 해당 무인이동체(200)를 직접 조종할 수 있다.In this way, the ground control unit 120 can control the flight state of the unmanned vehicle 200 by changing the flight mode 123b, and when direct control of the unmanned vehicle 200 is required, the ground control unit 120 The unmanned vehicle 200 can be directly controlled by performing the ground control mode.

또한, 지상 제어부(120)가 임무모드에서 수행되는 경우, 지상 제어부(120)의 화면에 표시된 지도 상의 위치를 클릭하여 무인이동체(200)의 주행 경로를 설정하면 해당 무인이동체(200)가 해당 위치로 이동하거나 각 경로별 임무가 부여될 수 있다. 도 6에는 지상 제어부(120)가 임무모드에서 무인이동체(200)를 관제 또는 제어하는 경우의 화면이 예시적으로 도시되어 있다. 도 6에 도시된 바와 같이, 지상 제어부(120)는 무인이동체(200)가 주행해야 할 경로를 화면의 지도(121) 상에 다수개의 포인트(P2,P3,P4,P5,P6)로 표시할 수 있다. 무인이동체(200)는 현재의 위치에서부터 P2->P3->P4->P5->P6를 지나는 경로를 따라 이동하면서 임무를 수행할 수 있다. 이와 같이, 지상 제어부(120)는 화면에 표시된 지도(121)에서 특정 위치를 클릭함으로써 무인이동체(200)의 주행 경로를 설정하고 무인이동체(200)가 설정된 경로를 따라 주행하도록 제어할 수 있다.Additionally, when the ground control unit 120 is operated in mission mode, clicking on a location on the map displayed on the screen of the ground control unit 120 sets the driving path of the unmanned vehicle 200, and the unmanned vehicle 200 moves to that location. You can move to or be assigned a mission for each route. FIG. 6 exemplarily shows a screen when the ground control unit 120 controls or controls the unmanned vehicle 200 in mission mode. As shown in FIG. 6, the ground control unit 120 displays the route on which the unmanned vehicle 200 should travel as a plurality of points (P2, P3, P4, P5, and P6) on the map 121 on the screen. You can. The unmanned vehicle 200 can perform its mission while moving along a path passing through P2->P3->P4->P5->P6 from its current location. In this way, the ground control unit 120 can set the driving path of the unmanned vehicle 200 by clicking on a specific location on the map 121 displayed on the screen and control the unmanned vehicle 200 to travel along the set path.

상기 지상 제어부(120)가 임무모드에서 수행되는 경우, 무인이동체(200)에 탑재된 카메라(120) 또는 미션 카메라가 촬영한 이미지와 지상 제어부(120)의 화면에 표시된 지도(121)가 서로 스와프(swap)되어 디스플레이 될 수 있다. When the ground control unit 120 is operated in mission mode, the image captured by the camera 120 or mission camera mounted on the unmanned vehicle 200 and the map 121 displayed on the screen of the ground control unit 120 are swapped with each other. It can be swapped and displayed.

지상 제어부(120)에 의해서 무인이동체(200)가 입력된 주행 경로를 따라 이동하면서 임무를 수행할 경우(임무모드), 무인이동체(200)에 탑재되어 있는 카메라(220) 또는 미션 카메라를 통해서 촬영된 임무 관련 이미지(사진)는 임무 수행 여부에 대한 판단 근거가 될 수 있다. 즉, 이미지(사진)에 나타난 정보를 통해서 임무 수행 여부를 판단할 수 있는데, 이러한 판단을 위해서는 이미지(사진)를 큰 화면으로 표시하는 것이 유리하다. 지상 제어부(120)는 도 7에 도시된 바와 같이, 지도(121b)와 촬영 이미지(122)를 서로 스와프 함으로써 촬영 이미지(122)를 전체 화면으로 표시할 수 있다. 즉, 지상 제어부(120)는 도 6의 하단에 작게 표시된 촬영 이미지(122)를 도 7에 도시된 바와 같이 전체 화면에 촬영 이미지(122)를 표시함으로써 정밀한 임무 수행 여부를 조사할 수 있다.When the unmanned vehicle 200 performs a mission while moving along the driving path entered by the ground control unit 120 (mission mode), images are taken using the camera 220 or mission camera mounted on the unmanned vehicle 200. Mission-related images (photos) can serve as a basis for judgment on whether or not the mission will be performed. In other words, it is possible to determine whether or not the mission will be performed through the information shown in the image (photo). For this determination, it is advantageous to display the image (photo) on a large screen. As shown in FIG. 7 , the ground control unit 120 can display the captured image 122 on the entire screen by swapping the map 121b and the captured image 122 with each other. That is, the ground control unit 120 can check whether the mission is accurately performed by displaying the captured image 122, which is displayed in small size at the bottom of FIG. 6, on the entire screen as shown in FIG. 7.

또한, 상기 지상 제어부(120)는 무인이동체(200)에 탑재된 주행 카메라(220) 또는 미션 카메라를 통해 다양한 임무를 수행할 수 있다. 도 8(a)에 도시된 바와 같이 지상 제어부(120)는 사물 인식이 가능한 미션 카메라를 이용하여 무인이동체(200)가 실시간 교통 상황을 확인하거나 도로 낙하물 감시 등 도로 순찰 임무를 수행하게 할 수 있고, 도 8(b)에 도시된 바와 같이 지상 제어부(120)는 열화상 촬영이 가능한 미션 카메라를 이용하여 무인이동체(200)가 수온을 확인하거나 실종자를 수색하는 등의 임무를 수행하게 할 수 있다.Additionally, the ground control unit 120 can perform various tasks through the driving camera 220 or mission camera mounted on the unmanned vehicle 200. As shown in FIG. 8(a), the ground control unit 120 can use a mission camera capable of object recognition to allow the unmanned mobile device 200 to perform road patrol duties such as checking real-time traffic conditions or monitoring fallen objects on the road. , As shown in FIG. 8(b), the ground control unit 120 can use a mission camera capable of thermal imaging to allow the unmanned mobile device 200 to perform tasks such as checking the water temperature or searching for a missing person. .

또한, 도 9(a)에 도시된 바와 같이 지상 제어부(120)는 수상 드론(USV; Unmanned Surface Vehicle)인 무인이동체(200)를 이용하여 해양 또는 하천을 수색하거나 해양 구조물을 점검하는 등의 임무를 수행하게 할 수 있고, 도 9(b)에 도시된 바와 같이 지상 제어부(120)는 무인 중장비인 무인이동체(200)를 이용하여 붕괴 위험이 있는 현장 작업을 수행하게 할 수 있다.In addition, as shown in FIG. 9(a), the ground control unit 120 performs tasks such as searching the ocean or river or inspecting marine structures using an unmanned vehicle 200, which is a water drone (USV; Unmanned Surface Vehicle). , and as shown in FIG. 9(b), the ground control unit 120 can perform field work at risk of collapse using the unmanned mobile vehicle 200, which is unmanned heavy equipment.

한편, 도 2를 참조하면, 본 발명의 일 실시예에 따른 시스템(10)은 지상 제어부(120)와 각 무인이동체(200)의 주행 또는 임무 관련 데이터를 주고 받거나 저장하는 클라우드 서버(150)를 더 포함하며, 클라우드 서버(150)는 데이터 허브(130)와 연결되어 데이터를 주고 받을 수 있다.Meanwhile, referring to FIG. 2, the system 10 according to an embodiment of the present invention includes a ground control unit 120 and a cloud server 150 that exchanges or stores driving or mission-related data of each unmanned vehicle 200. Additionally, the cloud server 150 is connected to the data hub 130 and can exchange data.

무인이동체(200)의 미션 컴퓨터(110)는 무선 통신부(160)를 통해서 각종 정보 또는 데이터를 클라우드 서버(150)에 전송하고, 지상 제어부(120)도 무인이동체(200)의 개별 관제와 관련된 정보 또는 데이터를 클라우드 서버(150)에 전송할 수 있다. 클라우드 서버(150)는 전송 받은 각종 정보 또는 데이터를 데이터 허브(130)에 무선 전송할 수 있고 데이터 허브(130)로부터 데이터 등을 전송 받을 수도 있다.The mission computer 110 of the unmanned vehicle 200 transmits various information or data to the cloud server 150 through the wireless communication unit 160, and the ground control unit 120 also transmits information related to individual control of the unmanned vehicle 200. Alternatively, data may be transmitted to the cloud server 150. The cloud server 150 can wirelessly transmit various types of information or data received to the data hub 130 and can also receive data, etc. from the data hub 130.

또한, 본 발명의 일 실시예에 따른 시스템(10)은 빅데이터부(170) 및 데이터 마이닝부(180)를 더 포함할 수 있다. 빅데이터부(170)는 클라우드 서버(150) 또는 데이터 허브(130)에서 데이터를 전달 받고 인공 지능을 이용하여 빅데이터화 할 수 있다. 데이터 마이닝부(180)는 빅데이터부(170)에서 빅데이터를 전달 받고 무인이동체(200)의 운영 목적에 따른 데이터를 생성하거나 추출할 수 있다. 이와 같이, 본 발명의 일 실시예에 따른 시스템(10)은 무인이동체(200)의 관제 또는 운영 과정에서 획득한 다양하고 많은 데이터를 빅데이터화 함으로써 이러한 빅데이터를 필요로 하는 수요자에게 데이터를 제공하거나, 빅데이터를 분석하여 수요자가 원하는 데이터를 생성하거나 추출한 후 수요자에게 제공할 수도 있다.Additionally, the system 10 according to an embodiment of the present invention may further include a big data unit 170 and a data mining unit 180. The big data unit 170 can receive data from the cloud server 150 or the data hub 130 and convert it into big data using artificial intelligence. The data mining unit 180 may receive big data from the big data unit 170 and generate or extract data according to the operation purpose of the unmanned vehicle 200. In this way, the system 10 according to an embodiment of the present invention converts a variety of data acquired during the control or operation of the unmanned vehicle 200 into big data, thereby providing data to consumers who need such big data. , Big data can be analyzed to generate or extract data desired by consumers and then provided to consumers.

도 4에 도시된 바와 같이, 본 발명의 일 실시예에 따른 시스템(10)은 지상 제어부(120)를 통해서 한 명의 파일럿이 다수의 무인이동체(200)를 운영하는 것이 가능하고, 지상 제어부(120) 또는 무선 통신부(160)를 통해 무인이동체(200)가 획득한 정보 또는 데이터를 데이터 허브(130)에 실시간 저장하며, 데이터 허브(130)에 저장된 데이터를 빅데이터부(170)에 전달하여 빅데이터화 하고 데이터 마이닝부(180)에 전달하여 수요자 맞춤형 데이터를 생성하거나 추출할 수 있다.As shown in FIG. 4, the system 10 according to an embodiment of the present invention allows one pilot to operate multiple unmanned vehicles 200 through the ground control unit 120, and the ground control unit 120 ) or the information or data acquired by the unmanned vehicle 200 through the wireless communication unit 160 is stored in real time in the data hub 130, and the data stored in the data hub 130 is transmitted to the big data unit 170 to create a big It can be converted into data and delivered to the data mining unit 180 to create or extract user-customized data.

한편, 도 10 내지 도 13에는 본 발명의 일 실시예에 따른 시스템(10)의 데이터 허브(130)의 기능과 관련된 화면이 예시적으로 도시되어 있다.Meanwhile, FIGS. 10 to 13 exemplarily show screens related to the functions of the data hub 130 of the system 10 according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 시스템(10)의 데이터 허브(130)는 무인이동체(200) 관련 빅데이터 클라우드 저장소(데이터베이스)이다. 본 발명의 일 실시예에 따른 시스템(10)은 데이터 허브(130)를 통해서 운영 중인 무인이동체(200)의 모든 기록을 저장하고 확인할 수 있다.The data hub 130 of the system 10 according to an embodiment of the present invention is a big data cloud storage (database) related to the unmanned vehicle 200. The system 10 according to an embodiment of the present invention can store and check all records of the unmanned vehicle 200 in operation through the data hub 130.

본 발명의 일 실시예에 따른 시스템(10)은 데이터 허브(130)를 통해 클라우드 서버(150)에 저장된 무인이동체(200)별 임무 데이터 또는 주행 데이터를 확인하거나 기록할 수 있다.The system 10 according to an embodiment of the present invention can check or record mission data or driving data for each unmanned vehicle 200 stored in the cloud server 150 through the data hub 130.

한편, 도 10에는 각기 다른 무인이동체(200)의 주행(비행) 기록 또는 임무 관련 기록이 저장되는 데이터 허브(130)의 처음 화면이 예시적으로 도시되어 있다. 도 10을 참조하면, 데이터 허브(130)는 무인이동체(200)의 주행 관련 지도(131)를 화면에 표시하는데, 상기 화면에는 운영 중인 모든 무인이동체(200)를 보여주는 무인이동체 목록창(132)이 표시될 수 있다. 데이터 허브(130)는 무인이동체 목록창(132)에 나타나 있는 무인이동체(200) 중 데이터를 확인하고 싶은 무인이동체를 선택할 수 있고, 선택된 무인이동체의 주행 또는 임무 관련 데이터를 보여줄 수 있다.Meanwhile, FIG. 10 exemplarily shows the first screen of the data hub 130 where driving (flight) records or mission-related records of different unmanned vehicles 200 are stored. Referring to FIG. 10, the data hub 130 displays a map 131 related to the driving of the unmanned vehicle 200 on the screen, and the screen includes an unmanned vehicle list window 132 showing all unmanned vehicles 200 in operation. This may be displayed. The data hub 130 can select an unmanned vehicle whose data you want to check among the unmanned vehicles 200 displayed in the unmanned vehicle list window 132 and display driving or mission-related data of the selected unmanned vehicle.

도 10의 무인이동체 목록창(132)에서 "rgblab-adc-1200-1"을 선택한 경우에 데이터 허브(130)의 화면이 도 11에 도시되어 있다.When “rgblab-adc-1200-1” is selected in the unmanned vehicle list window 132 of FIG. 10, the screen of the data hub 130 is shown in FIG. 11.

도 11을 참조하면, 데이터 허브(130)는 데이터의 확인을 위해 선택된 무인이동체(200)를 선택창(133)에 표시하고, 선택된 무인이동체(200)의 데이터를 날짜별로 보여주거나 모든 날짜의 데이터를 보여주는 날짜 선택창(134)을 표시할 수 있다. 날짜 선택창(134)에서 "모든 날짜"를 선택하면, 선택된 무인이동체(200)가 주행한 모든 날짜에 대한 주행기록 데이터(135) 또는 사진기록 데이터(136)를 표시할 수 있다. Referring to FIG. 11, the data hub 130 displays the selected unmanned vehicle 200 in the selection window 133 to confirm data, and shows data of the selected unmanned vehicle 200 by date or data for all dates. A date selection window 134 showing can be displayed. If “all dates” is selected in the date selection window 134, driving record data 135 or photo record data 136 for all dates on which the selected unmanned vehicle 200 drove can be displayed.

도 11의 경우에는 선택된 무인이동체(200)의 모든 날짜에 대한 주행기록 데이터가 데이터 표시창(134a)에 표시되어 있다. 데이터 허브(130)는 선택된 무인이동체(200)의 주행시간(s), 주행거리(m), 평균속력(m/s), 최고고도(m)를 날짜별로 표시하는 날짜별 데이터 표시창(134b)을 표시할 수 있다. 이때, 날짜 정보에는 선택된 무인이동체(200)가 주행을 시작한 시각 정보도 표시될 수 있다. In the case of FIG. 11, driving record data for all dates of the selected unmanned vehicle 200 is displayed in the data display window 134a. The data hub 130 has a data display window 134b by date that displays the travel time (s), travel distance (m), average speed (m/s), and maximum altitude (m) of the selected unmanned vehicle 200 by date. can be displayed. At this time, the date information may also include information on the time when the selected unmanned vehicle 200 started driving.

또한, 데이터 허브(130)는 날짜를 선택하는 경우 선택된 날짜에 해당 무인이동체(200)의 위치 또는 상태 정보를 보여주는 상세 데이터 표시창(135a)을 지도(131)의 아래에 표시할 수 있다. 도 11의 경우, 데이터 표시창(134a)에서 "2021-08-26_10:31:05"를 클릭한 경우가 도시되어 있다. 선택된 날짜 및 시각 정보는 지도(131)의 상단 표시창(134b)에도 표시될 수 있다.Additionally, when a date is selected, the data hub 130 may display a detailed data display window 135a below the map 131 that shows the location or status information of the unmanned vehicle 200 on the selected date. In the case of FIG. 11, a case where “2021-08-26_10:31:05” is clicked on the data display window 134a is shown. The selected date and time information may also be displayed in the upper display window 134b of the map 131.

데이터 허브(130)는 선택된 날짜 및 시각 정보 즉, 2021년 8월 26일 10시 31분 05초에 주행을 시작한 무인이동체(200)의 위치 및 상태 데이터를 표시하는 상세 데이터 표시창(135a)을 표시할 수 있다. 상세 데이터 표시창(135a)에는 일정 시간 간격(도 11의 경우에는 매초에 대해)에 대한 무인이동체(200)의 고도, 위도, 고도, 대기속도, 지상속도, 배터리전압, 장치온도, 기온, 기압 등의 데이터가 표시될 수 있다. The data hub 130 displays a detailed data display window 135a that displays the selected date and time information, that is, the location and status data of the unmanned vehicle 200 that started driving at 10:31:05 on August 26, 2021. can do. The detailed data display window 135a displays altitude, latitude, altitude, airspeed, ground speed, battery voltage, device temperature, air temperature, atmospheric pressure, etc. of the unmanned vehicle 200 at a certain time interval (every second in the case of FIG. 11). data can be displayed.

데이터 허브(130)는 무인이동체(200)의 주행이 완료된 후 저장된 데이터를 사후에 선택하여 확인할 수 있고 특정 시각에 대한 무인이동체(200)의 상태 정보 또는 위치 정보 등을 확인하고 기록할 수 있다.The data hub 130 can later select and check stored data after the unmanned vehicle 200 has completed driving, and can check and record status information or location information of the unmanned vehicle 200 at a specific time.

상기한 바와 같이, 본 발명의 일 실시예에 따른 시스템(10)은 데이터 허브(130)를 통해 선택된 무인이동체(200)의 주행 데이터 또는 임무 데이터를 시간별, 위치별 또는 경로별로 확인할 수 있다.As described above, the system 10 according to an embodiment of the present invention can check driving data or mission data of the selected unmanned vehicle 200 by time, location, or route through the data hub 130.

한편, 도 11에 도시된 바와 같이, 데이터 허브(130)는 무인이동체(200)의 주행기록 뿐만 아니라 사진기록 데이터도 확인할 수 있다. 본 발명의 일 실시예에 따른 시스템(10)은 데이터 허브(130)를 통해서 선택된 무인이동체(200)의 시간별, 위치별 또는 경로별 사진 데이터를 확인할 수 있다.Meanwhile, as shown in FIG. 11, the data hub 130 can check not only the driving record of the unmanned vehicle 200 but also photo record data. The system 10 according to an embodiment of the present invention can check photo data by time, location, or route of the selected unmanned vehicle 200 through the data hub 130.

도 12에는 선택된 무인이동체(200)가 획득한 모든 날짜에 대한 사진기록을 보여주는 화면이 도시되어 있다. 도 12의 경우에는 "rgblab-bat-1" 무인이동체(200)를 선택한 경우 모든 날짜의 사진기록을 보여준다. 도 12를 참조하면, 선택된 무인이동체(200) "rgblab-bat-1"은 2021년 5월 26일 11시 10분에 1장의 사진을 촬영했고, 2021년 6월 1일 10시44분에 4장의 사진을 촬영했다는 것을 알 수 있으며, 2021년 5월 26일에 촬영한 사진이 사진 표시창(136a)에 표시되어 있다.FIG. 12 shows a screen showing photo records for all dates acquired by the selected unmanned vehicle 200. In the case of Figure 12, when the "rgblab-bat-1" unmanned vehicle 200 is selected, photo records of all dates are shown. Referring to FIG. 12, the selected unmanned vehicle 200 "rgblab-bat-1" took 1 photo at 11:10 on May 26, 2021, and 4 at 10:44 on June 1, 2021. It can be seen that several photos were taken, and the photo taken on May 26, 2021 is displayed in the photo display window 136a.

데이터 허브(130)는 선택된 사진이 촬영된 순간 무인이동체(200)의 위도, 경도 및 고도 정보를 위치 표시창(136b)에 표시함으로써 해당 사진의 단순한 위치 정보를 확인하는 것에 그치지 않고 사진과 무인이동체를 연관지어 데이터화함으로써 보다 다양한 정보를 확인할 수 있다.The data hub 130 not only confirms the simple location information of the photo by displaying the latitude, longitude, and altitude information of the unmanned vehicle 200 on the location display window 136b at the moment the selected photo is taken, but also displays the photo and the unmanned vehicle 200. By linking data and converting it into data, more diverse information can be confirmed.

도 13을 참조하면, 데이터 허브(130)는 화면에 표시되는 무인이동체 목록창(132, 도 10 참조)에서 선택된 무인이동체(200)의 주행 데이터 또는 임무 데이터(사진 포함)를 메인 창(135b)에 표시할 수 있다. 도 13의 경우에는, 무인이동체 목록창(132)에서 rgblab-pelicancase-1(132a)이라는 무인이동체를 선택한 경우 이 무인이동체의 2021년 8월 30일 주행 데이터가 메인 창(135b)에 표시되어 있다.Referring to FIG. 13, the data hub 130 displays driving data or mission data (including photos) of the unmanned vehicle 200 selected in the unmanned vehicle list window 132 (see FIG. 10) displayed on the screen in the main window 135b. It can be displayed in . In the case of Figure 13, when an unmanned vehicle called rgblab-pelicancase-1 (132a) is selected in the unmanned vehicle list window 132, the driving data of this unmanned vehicle on August 30, 2021 is displayed in the main window 135b. .

데이터 허브(130)는 메인 창(135b)에 선택된 무인이동체(rgblab-pelicancase-1)가 2021년 8월 30일에 주행한 횟수, 총 주행시간, 총 주행거리를 표시하고, 총 8번의 주행 각각에 대한 주행 시작 시간 및 종료 시간, 주행시간, 주행거리(m), 평균속력(m/s), 최고고도(m) 등의 데이터를 표시할 수 있다.The data hub 130 displays the number of times the unmanned vehicle (rgblab-pelicancase-1) selected in the main window 135b has driven on August 30, 2021, the total driving time, and the total driving distance, and displays a total of 8 driving times each. Data such as driving start and end time, driving time, driving distance (m), average speed (m/s), and maximum altitude (m) can be displayed.

도 13에 도시된 바와 같이, 본 발명의 일 실시예에 따른 시스템(10)의 데이터 허브(130)는 선택된 무인이동체(200)의 일별, 월별 또는 연별 통계 데이터를 표시하거나 확인할 수 있다. 화면의 우측 상단에 통계 데이터 창(134c)이 표시되는데, 통계 데이터 창(134c)에서 일별, 월별 또는 연별 메뉴를 선택함으로써 해당 무인이동체의 일별 데이터, 월별 데이터 또는 연도별 데이터에 대한 통계 데이터를 확인할 수 있다. 도 13의 경우에는 선택된 무인이동체의 2021년 8월 30일 일별 통계 데이터가 메인 창(135b)에 표시되어 있다.As shown in FIG. 13, the data hub 130 of the system 10 according to an embodiment of the present invention can display or check daily, monthly, or yearly statistical data of the selected unmanned vehicle 200. A statistical data window 134c is displayed at the top right of the screen. By selecting the daily, monthly, or yearly menu in the statistical data window 134c, you can check the statistical data for daily, monthly, or yearly data of the unmanned vehicle. You can. In the case of FIG. 13, daily statistical data of the selected unmanned vehicle on August 30, 2021 is displayed in the main window 135b.

이와 같이, 본 발명의 일 실시예에 따른 시스템(10)의 데이터 허브(130)는 무인이동체(200)의 미션 컴퓨터(110)를 통해서 무인이동체(200)의 주행 데이터 또는 임무 관련 데이터를 전송 받아 저장하는 것에 그치지 않고 저장된 데이터를 사후에 불러와서 확인하는 것이 가능하고, 이때 다양한 조건 또는 상황별로 주행 데이터 및 사진 등의 임무 데이터를 확인하는 것이 가능하고 사진 등의 임무 데이터와 주행 데이터를 연관 짓는 것이 가능하기 때문에 임무 데이터를 분석하여 다양한 정보를 얻을 수 있고, 수요자는 이러한 데이터를 이용하여 맞춤형 데이터 활용을 할 수 있다. 이 과정에 빅데이터부(170) 및 데이터 마이닝부(180)가 개입하여 데이터 허브(130)에 저장된 데이터를 빅데이터화 하고 데이터 수요자가 필요로 하는 데이터를 추출하여 제공할 수 있다.In this way, the data hub 130 of the system 10 according to an embodiment of the present invention receives driving data or mission-related data of the unmanned vehicle 200 through the mission computer 110 of the unmanned vehicle 200. In addition to saving, it is possible to load and check the saved data later. At this time, it is possible to check mission data such as driving data and photos according to various conditions or situations, and it is possible to correlate mission data such as photos and driving data. Because this is possible, various information can be obtained by analyzing mission data, and consumers can use this data to utilize customized data. The big data unit 170 and the data mining unit 180 intervene in this process to convert the data stored in the data hub 130 into big data and extract and provide data needed by data consumers.

한편, 본 발명의 일 실시예에 따른 시스템(10)의 다중 관제부(140)는 임무 수행 중인 모든 무인이동체(200)의 정보를 실시간 통합 모니터링하거나 멀티비전 지원을 제공하여 각 무인이동체(200)로부터 수신된 주행 데이터 또는 임무 데이터의 상세 모니터링을 제공할 수 있다.Meanwhile, the multiple control unit 140 of the system 10 according to an embodiment of the present invention monitors information of all unmanned vehicles 200 performing missions in real time or provides multi-vision support to monitor each unmanned vehicle 200. It can provide detailed monitoring of driving data or mission data received from.

상기 다중 관제부(140)는 다수의 무인이동체(200)를 실시간으로 모니터링하는 소프트웨어 또는 이러한 소프트웨어가 탑재된 하드웨어 형태로 마련될 수 있다.The multiple control unit 140 may be provided in the form of software that monitors a plurality of unmanned vehicles 200 in real time or hardware equipped with such software.

본 발명의 일 실시예에 따른 시스템(10)은 다중 관제부(140)를 통해서 현재 임무를 수행하고 있는 모든 무인이동체(200)의 정보(주행 데이터 또는 임무 데이터)를 실시간으로 통합 모니터링할 수 있다. 또한, 멀티비전(multi-vision) 지원을 통해 각각의 무인이동체(200)로부터 수신된 데이터(카메라, 센서 등의 데이터)의 상세 모니터링을 제공할 수 있다.The system 10 according to an embodiment of the present invention can integrate and monitor information (driving data or mission data) of all unmanned vehicles 200 currently performing a mission in real time through the multi-control unit 140. . In addition, detailed monitoring of data (data from cameras, sensors, etc.) received from each unmanned vehicle 200 can be provided through multi-vision support.

도 14 내지 도 16에는 다중 관제부(140)가 다수의 무인이동체(200)를 실시간으로 모니터링하는 상황이 예시적으로 도시되어 있다. 도 14 내지 도 16에 도시된 도면은 다중 관제부(140)의 디스플레이부(미도시)에 표현되는 화면을 예시적으로 도시한 것이다.14 to 16 illustrate a situation in which the multiple control unit 140 monitors a plurality of unmanned vehicles 200 in real time. The drawings shown in FIGS. 14 to 16 are exemplary illustrations of screens displayed on the display unit (not shown) of the multi-control unit 140.

도 14(a)를 참조하면, 다중 관제부(140)는 8대의 드론(Drone), 2대의 무인차량(UGV), 2개의 무인수상정(USV) 등 총 12대의 무인이동체(200)를 실시간 모니터링하고 있다. 도 14(a)에 도시된 바와 같이 다중 관제부(140)는 다수의 무인이동체(200)를 하나의 지도 상에 표시하고 각 무인이동체(200)의 주행 또는 임무 수행을 모니터링할 수 있다.Referring to FIG. 14(a), the multi-control unit 140 controls a total of 12 unmanned vehicles 200, including 8 drones (Drones), 2 unmanned vehicles (UGVs), and 2 unmanned surface vehicles (USVs), in real time. We are monitoring. As shown in FIG. 14(a), the multi-control unit 140 can display multiple unmanned vehicles 200 on one map and monitor the driving or mission performance of each unmanned vehicle 200.

도 14(a)에 도시된 바와 같이, 다중 관제부(140)는 다수의 무인이동체(200) 중에서 어느 하나의 무인이동체(210)를 선택하여 선택된 무인이동체(210)의 주행 경로, 주행 데이터 또는 임무 데이터를 확인하거나 모니터링할 수 있다. 도 14(a)를 참조하면, 다중 관제부(140)는 무인이동체(200) 중에서 "Drone-04"라는 무인이동체(210)를 선택한 경우 해당 무인이동체(210)의 위도, 경도, 고도 등 위치 정보, 비행 시간 등의 주행 데이터 뿐만 아니라 해당 무인이동체(210)가 미션 카메라로 촬영한 실시간 영상도 표시할 수 있다.As shown in FIG. 14(a), the multi-control unit 140 selects one unmanned vehicle 210 among a plurality of unmanned vehicles 200 and provides the driving path, driving data, or travel data of the selected unmanned vehicle 210. You can check or monitor mission data. Referring to FIG. 14(a), when the multi-control unit 140 selects an unmanned vehicle 210 called “Drone-04” among the unmanned vehicles 200, the location of the unmanned vehicle 210, such as latitude, longitude, and altitude, is displayed. In addition to driving data such as information and flight time, it can also display real-time video captured by the unmanned vehicle 210 with a mission camera.

도 14(b)는 선택된 무인이동체(210)가 촬영하는 실시간 영상 화면과 관제 화면을 스와프한 화면을 보여주고 있다.Figure 14(b) shows a screen that swaps the real-time video screen captured by the selected unmanned vehicle 210 and the control screen.

도 15(a) 및 (b)에는 다중 관제부(140)가 관제하는 다수의 무인이동체(200) 중에서 강 위에서 임무를 수행하는 무인이동체(210)를 실시간 모니터링하는 화면이 예시적으로 도시되어 있다.15(a) and (b) illustrate a screen for real-time monitoring of an unmanned vehicle 210 performing a mission on a river among a plurality of unmanned vehicles 200 controlled by the multiple control unit 140. .

도 16(a) 및 (b)에는 다중 관제부(140)가 관제하는 다수의 무인이동체(200) 중에서 해상에서 임무를 수행하는 무인이동체(210)를 실시간 모니터링하는 화면이 예시적으로 도시되어 있다.16(a) and (b) illustrate a screen for real-time monitoring of an unmanned vehicle 210 performing a mission at sea among a plurality of unmanned vehicles 200 controlled by the multiple control unit 140. .

이와 같이, 본 발명의 일 실시예에 따른 시스템(10)의 다중 관제부(140)는 실시간으로 모니터링하고 있는 다수의 무인이동체(200) 중에서 적어도 하나의 무인이동체(210)를 선택해서 해당 무인이동체(210)의 상태를 정밀하게 모니터링할 수 있다.In this way, the multi-control unit 140 of the system 10 according to an embodiment of the present invention selects at least one unmanned vehicle 210 from among the plurality of unmanned vehicles 200 being monitored in real time and selects the corresponding unmanned vehicle 210. The status of (210) can be precisely monitored.

상기에서 설명한 본 발명의 일 실시예에 따른 자율 무인이동체 관제 플랫폼 시스템(10)은 무인이동체에 탑재되거나 무인이동체의 운영에 적용됨으로써 무인이동체가 다양한 임무를 수행하는 것을 가능하게 만들 수 있다. 또한, 본 발명의 일 실시예에 따른 자율 무인이동체 관제 플랫폼 시스템(10)을 통해서 획득한 무인이동체의 다양한 데이터를 저장하고 인공지능을 적용하여 빅데이터화 함으로써 수요자가 원하는 형태의 데이터를 제공하는 것이 가능하다.The autonomous unmanned vehicle control platform system 10 according to an embodiment of the present invention described above can enable the unmanned vehicle to perform various missions by being mounted on the unmanned vehicle or applied to the operation of the unmanned vehicle. In addition, it is possible to provide data in the form desired by consumers by storing various data of unmanned vehicles obtained through the autonomous unmanned vehicle control platform system 10 according to an embodiment of the present invention and converting them into big data by applying artificial intelligence. do.

이상에서 설명된 시스템은 하드웨어 구성 요소, 소프트웨어 구성 요소, 및/또는 하드웨어 구성 요소 및 소프트웨어 구성 요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 시스템 및 구성 요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 시스템은 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 시스템은 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 시스템은 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 시스템이 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 시스템은 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The system described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the systems and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general-purpose or special-purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A system may run an operating system (OS) and one or more software applications running on the operating system. Additionally, the system may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, the system may be described as using only one, but those skilled in the art will recognize that the system includes multiple processing elements and/or multiple types of processing elements. You can see that it can be done. For example, a system may include multiple processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 시스템에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used by any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by a system or to provide instructions or data to a processing device. Alternatively, it may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

한편, 본 발명의 일 실시예에 따른 시스템을 사용한 자율 무인이동체 관제 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CDROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Meanwhile, the method for controlling an autonomous unmanned vehicle using a system according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CDROMs and DVDs, and magneto-optical media such as floptical disks. Includes magneto-optical media and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments and equivalents of the claims also fall within the scope of the following claims.

10: 자율 무인이동체 관제 플랫폼 시스템
110: 미션 컴퓨터
120: 지상 제어부
130: 데이터 허브
140: 다중 관제부
150: 클라우드 서버
160: 무선 통신부
170: 빅데이터부
180: 데이터 마이닝부
200: 무인이동체
10: Autonomous unmanned vehicle control platform system
110: Mission computer
120: Ground control unit
130: data hub
140: Multiple control unit
150: Cloud server
160: Wireless communication department
170: Big data department
180: Data mining department
200: Unmanned vehicle

Claims (11)

무인이동체;
상기 무인이동체에 탑재되는 비행 컨트롤러, 주행 카메라, 통신 모뎀, 미션 카메라, 카메라 짐벌 또는 머니퓰레이터와 연결되는 엣지 컴퓨팅 디바이스로 마련되며, 상기 무인이동체에 탑재되는 미션 컴퓨터;
상기 무인이동체를 개별 제어하는 지상 제어부;
상기 미션 컴퓨터 또는 상기 지상 제어부와 상기 무인이동체의 임무 또는 주행 관련 데이터를 주고 받거나 저장하는 데이터 허브; 및
상기 미션 컴퓨터 또는 상기 데이터 허브를 통해 상기 무인이동체의 임무 또는 주행 관련 데이터를 전달 받아 다수의 무인이동체의 주행 또는 임무를 실시간 모니터링하거나 제어하는 다중 관제부;를 포함하며,
상기 미션 컴퓨터는,
상기 무인이동체와 연결되도록 상부에 위치하며, 상기 미션 컴퓨터에서 발생하는 열을 냉각시킬 수 있도록 마련된 방열핀 또는 냉각팬을 포함하는 탑케이스;
상기 탑케이스와 마주 보도록 하부에 위치하는 바텀케이스;
상기 탑케이스와 상기 바텀케이스의 내부에 마련되며, 상기 미션 컴퓨터의 중앙처리장치 기능을 하는 임베디드 컴퓨팅 보드; 및
상기 비행 컨트롤러, 상기 주행 카메라, 상기 통신 모뎀, 상기 미션 카메라, 상기 카메라 짐벌 또는 상기 머니퓰레이터를 케이블로 연결하기 위한 다수개의 소켓이 가장자리에 형성되고, 상기 탑케이스와 상기 바텀케이스의 내부에 마련되는 캐리어 보드;를 포함하고,
상기 데이터 허브를 통해 상기 무인이동체에 대한 개별 임무 기록 또는 주행 기록을 확인하거나 기록하는 것을 특징으로 하는 자율 무인이동체 관제 플랫폼 시스템.
unmanned vehicle;
A mission computer provided as an edge computing device connected to a flight controller, driving camera, communication modem, mission camera, camera gimbal, or manipulator mounted on the unmanned vehicle, and mounted on the unmanned vehicle;
a ground control unit that individually controls the unmanned vehicle;
a data hub that exchanges or stores data related to the mission or driving of the unmanned vehicle with the mission computer or the ground control unit; and
It includes a multi-control unit that receives mission or driving-related data of the unmanned vehicle through the mission computer or the data hub and monitors or controls the driving or mission of a plurality of unmanned vehicles in real time,
The mission computer is,
A top case located at the top to be connected to the unmanned vehicle and including a heat dissipation fin or a cooling fan provided to cool the heat generated by the mission computer;
a bottom case located at the lower part to face the top case;
an embedded computing board provided inside the top case and the bottom case and functioning as a central processing unit of the mission computer; and
A carrier provided inside the top case and the bottom case, with a plurality of sockets formed at the edges for connecting the flight controller, the driving camera, the communication modem, the mission camera, the camera gimbal, or the manipulator with a cable. Includes a board;
An autonomous unmanned vehicle control platform system, characterized in that it checks or records individual mission records or driving records for the unmanned vehicle through the data hub.
삭제delete 제1항에 있어서,
상기 미션 컴퓨터는 상기 무인이동체의 주행을 제어하거나 항법을 관제하거나 탑재되는 센서를 제어하거나 무선 통신에 의해 데이터를 송수신하거나 데이터를 처리하는 인공지능 컴퓨팅 디바이스로 마련되는 것을 특징으로 하는 자율 무인이동체 관제 플랫폼 시스템.
According to paragraph 1,
The mission computer is an autonomous unmanned vehicle control platform, characterized in that it is provided as an artificial intelligence computing device that controls the driving of the unmanned vehicle, controls navigation, controls mounted sensors, transmits and receives data through wireless communication, or processes data. system.
제3항에 있어서,
상기 지상 제어부는 상기 미션 컴퓨터가 탑재된 상기 무인이동체를 개별적으로 실시간 조종하거나 관제하며, 상기 무인이동체를 모니터링하거나 상기 무인이동체로부터 주행 또는 임무 관련 데이터를 입수하는 것을 특징으로 하는 자율 무인이동체 관제 플랫폼 시스템.
According to paragraph 3,
The ground control unit individually controls or controls the unmanned vehicle equipped with the mission computer in real time, and monitors the unmanned vehicle or obtains driving or mission-related data from the unmanned vehicle. An autonomous unmanned vehicle control platform system. .
제4항에 있어서,
상기 지상 제어부는 원격제어모드, 지상제어모드 및 임무모드 중 어느 하나의 모드를 수행하여 상기 무인이동체를 제어하며,
상기 무인이동체의 직접 조종이 필요한 경우에 상기 지상제어모드를 수행하여 해당 무인이동체를 직접 조종하는 것을 특징으로 하는 자율 무인이동체 관제 플랫폼 시스템.
According to paragraph 4,
The ground control unit controls the unmanned vehicle by performing any one of a remote control mode, a ground control mode, and a mission mode,
An autonomous unmanned vehicle control platform system characterized in that when direct control of the unmanned vehicle is required, the ground control mode is performed to directly control the unmanned vehicle.
제5항에 있어서,
상기 지상 제어부가 상기 임무모드에서 수행되는 경우, 상기 지상 제어부의 화면에 표시된 지도 상의 위치를 클릭하여 경로를 설정하면 해당 무인이동체가 해당 위치로 이동하거나 각 경로별 임무가 부여되는 것을 특징으로 하는 자율 무인이동체 관제 플랫폼 시스템.
According to clause 5,
When the ground control unit is performed in the mission mode, when a route is set by clicking on a location on the map displayed on the ground control unit's screen, the unmanned vehicle moves to the location or a mission for each route is assigned. Unmanned vehicle control platform system.
제5항에 있어서,
상기 지상 제어부가 상기 임무모드에서 수행되는 경우, 상기 무인이동체에 탑재된 카메라가 촬영한 이미지와 상기 지상 제어부의 화면에 표시된 지도가 서로 스와프되어 디스플레이되는 것을 특징으로 하는 자율 무인이동체 관제 플랫폼 시스템.
According to clause 5,
When the ground control unit is performed in the mission mode, an image captured by a camera mounted on the unmanned vehicle and a map displayed on the screen of the ground control unit are swapped and displayed.
제5항에 있어서,
상기 지상 제어부와 각 무인이동체의 주행 또는 임무 관련 데이터를 주고 받거나 저장하는 클라우드 서버를 더 포함하며,
상기 클라우드 서버는 상기 데이터 허브와 연결되어 데이터를 주고 받는 것을 특징으로 하는 자율 무인이동체 관제 플랫폼 시스템.
According to clause 5,
It further includes a cloud server that exchanges or stores driving or mission-related data of the ground control unit and each unmanned vehicle,
The cloud server is connected to the data hub to exchange data. An autonomous unmanned vehicle control platform system.
제8항에 있어서,
상기 데이터 허브를 통해 상기 클라우드 서버에 저장된 상기 무인이동체별 임무 데이터 또는 주행 데이터를 확인하거나 기록하는 것이 가능한 것을 특징으로 하는 자율 무인이동체 관제 플랫폼 시스템.
According to clause 8,
An autonomous unmanned vehicle control platform system, characterized in that it is possible to check or record mission data or driving data for each unmanned vehicle stored in the cloud server through the data hub.
제9항에 있어서,
상기 데이터 허브는, 선택된 무인이동체의 주행 데이터 또는 임무 데이터를 시간별, 위치별 또는 경로별로 확인하거나, 선택된 무인이동체의 시간별, 위치별 또는 경로별 사진 데이터를 확인하거나, 선택된 무인이동체의 일별, 월별 또는 연별 통계 데이터를 확인하는 것을 특징으로 하는 자율 무인이동체 관제 플랫폼 시스템.
According to clause 9,
The data hub checks driving data or mission data of the selected unmanned vehicle by time, location, or route, checks photo data of the selected unmanned vehicle by time, location, or route, or checks the selected unmanned vehicle by day, month, or route. An autonomous unmanned vehicle control platform system characterized by checking annual statistical data.
제9항에 있어서,
상기 다중 관제부는 임무 수행 중인 모든 무인이동체의 정보를 실시간 통합 모니터링하거나 멀티비전 지원을 제공하여 각 무인이동체로부터 수신된 주행 데이터 또는 임무 데이터의 상세 모니터링을 제공하는 것을 특징으로 하는 자율 무인이동체 관제 플랫폼 시스템.
According to clause 9,
The multi-control unit provides real-time integrated monitoring of information on all unmanned vehicles performing missions or provides multi-vision support to provide detailed monitoring of driving data or mission data received from each unmanned vehicle. An autonomous unmanned vehicle control platform system. .
KR1020210126614A 2021-09-24 2021-09-24 Platform system for controlling autonomous unmanned vehicle KR102612635B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210126614A KR102612635B1 (en) 2021-09-24 2021-09-24 Platform system for controlling autonomous unmanned vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210126614A KR102612635B1 (en) 2021-09-24 2021-09-24 Platform system for controlling autonomous unmanned vehicle

Publications (2)

Publication Number Publication Date
KR20230043571A KR20230043571A (en) 2023-03-31
KR102612635B1 true KR102612635B1 (en) 2023-12-12

Family

ID=86005554

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210126614A KR102612635B1 (en) 2021-09-24 2021-09-24 Platform system for controlling autonomous unmanned vehicle

Country Status (1)

Country Link
KR (1) KR102612635B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102598890B1 (en) * 2023-07-11 2023-11-06 한화시스템 주식회사 Apparatus and method using q-learning for control unmanned vehicles

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160117853A1 (en) * 2014-10-27 2016-04-28 SZ DJI Technology Co., Ltd Uav flight display
KR101866239B1 (en) * 2017-05-30 2018-06-12 (주)이피에스이앤이 Method for Monitoring Water Quality Environment Using Drone

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170075368A (en) * 2015-12-23 2017-07-03 (주)솔리드이엔지 Unmanned aerial vehicle integrated management system and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160117853A1 (en) * 2014-10-27 2016-04-28 SZ DJI Technology Co., Ltd Uav flight display
KR101866239B1 (en) * 2017-05-30 2018-06-12 (주)이피에스이앤이 Method for Monitoring Water Quality Environment Using Drone

Also Published As

Publication number Publication date
KR20230043571A (en) 2023-03-31

Similar Documents

Publication Publication Date Title
US11361665B2 (en) Unmanned aerial vehicle privacy controls
US11216015B2 (en) Geographic survey system for vertical take-off and landing (VTOL) unmanned aerial vehicles (UAVs)
US20220176846A1 (en) Unmanned Aerial Vehicle Remote Flight Planning System
US11899472B2 (en) Aerial vehicle video and telemetric data synchronization
US20230236611A1 (en) Unmanned Aerial Vehicle Sensor Activation and Correlation System
US10126126B2 (en) Autonomous mission action alteration
US9346543B2 (en) Unmanned aerial vehicle and methods for controlling same
US20230394982A1 (en) Pre-emptive generation of autonomous unmanned aerial vehicle inspections according to monitored sensor events
CN102654940B (en) Processing method of traffic information acquisition system based on unmanned aerial vehicle and
US8855846B2 (en) System and method for onboard vision processing
WO2017139282A1 (en) Unmanned aerial vehicle privacy controls
CN203376646U (en) Low-altitude remote sensing monitoring system based on combination of 3S technology and unmanned aerial vehicle
US20210065560A1 (en) Utilizing visualization for managing an unmanned aerial vehicle
CN111295627A (en) Underwater piloting unmanned aerial vehicle system
KR102612635B1 (en) Platform system for controlling autonomous unmanned vehicle
US20220392353A1 (en) Unmanned aerial vehicle privacy controls
US20220392352A1 (en) Unmanned aerial vehicle module management
Liang et al. Design and development of ground control system for tethered uav
JP2024009938A (en) Flight management server and flight management system for unmanned flying body
Guenzi et al. Open source, low-cost and modular fixed-wing UAV with BVLOS flight capabilities for geohazards monitoring and surveying
US20210304625A1 (en) Monotonic partitioning in unmanned aerial vehicle search and surveillance
KR102506733B1 (en) Unmanned moving vehicle operation system
Phang et al. Development of autonomous UAV systems for low light surveillance applications using night vision camera
EP4258079A1 (en) Method and system for controlling an unmanned aerial vehicle
CN215416387U (en) Unmanned aerial vehicle

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant