KR102350668B1 - 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템 및 방법 - Google Patents

드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템 및 방법 Download PDF

Info

Publication number
KR102350668B1
KR102350668B1 KR1020210126646A KR20210126646A KR102350668B1 KR 102350668 B1 KR102350668 B1 KR 102350668B1 KR 1020210126646 A KR1020210126646 A KR 1020210126646A KR 20210126646 A KR20210126646 A KR 20210126646A KR 102350668 B1 KR102350668 B1 KR 102350668B1
Authority
KR
South Korea
Prior art keywords
flight
user
terminal
area
situation
Prior art date
Application number
KR1020210126646A
Other languages
English (en)
Inventor
신승혁
Original Assignee
주식회사 풍국
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 풍국 filed Critical 주식회사 풍국
Priority to KR1020210126646A priority Critical patent/KR102350668B1/ko
Application granted granted Critical
Publication of KR102350668B1 publication Critical patent/KR102350668B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • G06Q50/30
    • B64C2201/127
    • B64C2201/141

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Operations Research (AREA)
  • Tourism & Hospitality (AREA)
  • Alarm Systems (AREA)

Abstract

본 발명은 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템 및 방법에 관한 것으로, 상기 시스템은 동작 모드에 따라 사용자의 위치를 중심으로 동적 설정되는 비행 영역을 자율 비행하면서 사용자 인근의 상황을 감시하도록 구현되는 무인 비행 단말; 및 상기 무인 비행 단말과 연동하고 상기 사용자의 위치를 기초로 상기 비행 영역에 관한 갱신 신호를 생성하며 상기 상황에 관한 영상 및 환경 데이터를 수신하면서 상기 상황의 위험도를 분석하여 상기 사용자를 위한 알림을 제공하는 사용자 단말;을 포함한다. 따라서, 본 발명은 본 발명은 위험 모니터링 기술에 관한 것으로, 보다 상세하게는 사용자의 예초작업, 나무전지, 수목전정, 가지치기, 수목관리 등의 조경작업 중에 자율 비행을 통해 사용자에게 발생 가능한 위험 요소를 사전에 인지하여 알릴 수 있으며, 시스템 연동을 통해 위험상황 알림, 사고상황 전파, 긴급구조 대응 등에 효율적인 대처가 가능할 수 있다.

Description

드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템 및 방법{SMART USER SITUATION MONITORING SYSTEM AND METHOD FOR LANDSCAPING BASED ON ARTIFICIAL INTELLIGENCE USING DRONE}
본 발명은 위험 모니터링 기술에 관한 것으로, 보다 상세하게는 사용자의 예초작업, 나무전지, 수목전정, 가지치기, 수목관리 등의 조경작업 중에 자율 비행을 통해 사용자에게 발생 가능한 위험 요소를 사전에 인지하여 알릴 수 있으며, 시스템 연동을 통해 위험상황 알림, 사고상황 전파, 긴급구조 대응 등에 효율적인 대처가 가능한 있는 드론을 이용한 인공지능 기반의 조경작업용 스마트 기반의 사용자 상황 감시 시스템 및 방법에 관한 것이다.
우리나라는 평지보다 산지가 많으므로, 산기슭에 인접한 주거지와 도로가 많은 편이라 할 수 있다. 특히, 산지에 인접한 지역은 지형이 험한 곳이 많아 주거지 인근이나 도로 환경을 정비하기 위한 예초작업, 나무전지, 수목전정, 가지치기, 수목관리 등의 조경작업 과정에서 작업자들이 수많은 위험에 노출될 수 있다.
자갈이나 바위가 많은 경사면 등의 지형에서 나무를 식재하거나 예초작업, 나무전지, 수목전정, 가지치기, 수목관리 등의 조경 작업을 수행하는 경우 예상하지 못한 낙석이나 산사태 등에 그대로 노출될 수 있으며, 적절한 보호 장비와 안전 장치들이 제대로 배치되지 않으면 작업자들의 안전을 확보하기 어려운 문제점들이 존재한다.
예를 들어, 주택가, 도로변 등에 식재된 나무의 전지작업 도중에는 안전표시판이나 작업주의봉 등을 설치하고, 수신호 요원을 배치하는 등의 안전 규정이 필수적으로 요구되고 있으나, 실제 현장에서 이러한 규정들이 철저하게 지켜지기에는 다소 어려움이 존재하는 존재하는 실정이다.
실제로 4차선 도로변에서 전지작업을 진행 중이던 작업자가 차량 통행이 한창인 도로변으로 나와 떨어진 나뭇가지를 쓸어 담는 과정에서 갑자기 튀어나온 차량들로 인해 작업자들이 매우 아슬아슬한 상황에서 작업을 하는 등 작업자들이 사고 위험에 그대로 노출되고 있으며, 예초작업, 나무전지, 수목전정, 가지치기, 수목관리 등의 조경작업에 있어서 개인의 안전을 보호하기 위한 구체적인 방안이 마련될 필요가 있다.
드론(drone)은 무인비행장치(Unmanned Aerial Vehicles, UAV)로서, 사람이 타지 않고 원격 조종 또는 스스로 조종되는 비행체에 해당할 수 있다. 드론은 사용용도에 따라 카메라, 센서, 통신장비 또는 다양한 장비들을 탑재할 수 있다.으며, 드론의 보급에 따라 안전 감시와 위험 전파 등에서도 그 활용성이 점차적으로 증가하고 있는 실정이다.
초기에 드론은 아군의 희생을 줄이는 군사 목적으로 주로 무선 비행체 형태로 개발되기 시작하였으나, 현재는 육상, 수중, 수상에서 운용 가능한 드론들이 개발되고 있으며 활용 범위도 농업, 물류, 측량, 재난 감시, 인명 구조까지 다양한 분야로 확장되고 있다.
특히, 최근에는 드론의 보급화가 빠르게 이루어지고 있으며, 이에 따라 개인들의 다양한 활동에 널리 사용되고 있다. 다만, 드론의 자율 비행 기능은 여전히 제한적인 상황에서만 운용되고 있어 사용자 개인 활동 과정에서 사용자의 안전을 감시하기 위한 능동적인 기능이 요구되고 있다.
한국등록특허 제10-1788721호 (2017.10.16)
본 발명의 일 실시예는 사용자의 예초작업, 나무전지, 수목전정, 가지치기, 수목관리 등의 조경작업 중에 자율 비행을 통해 사용자에게 발생 가능한 위험 요소를 사전에 인지하여 알릴 수 있으며, 시스템 연동을 통해 위험상황 알림, 사고상황 전파, 긴급구조 대응 등에 효율적인 는 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템 및 방법을 제공하고자 한다.
본 발명의 일 실시예는 사용자의 움직임에 동적으로 변경되는 비행 영역 내에서 무인 비행체를 통해 사용자의 위험 상황을 감시함으로써 사용자의 안전을 보호할 수 있는 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템 및 방법을 제공하고자 한다.
실시예들 중에서, 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템은 동작 모드에 따라 사용자의 위치를 중심으로 동적 설정되는 비행 영역을 자율 비행하면서 사용자 인근의 상황을 감시하도록 구현되는 무인 비행 단말; 및 상기 무인 비행 단말과 연동하고 상기 사용자의 위치를 기초로 상기 비행 영역에 관한 갱신 신호를 생성하며 상기 상황에 관한 영상 및 환경 데이터를 수신하면서 상기 상황의 위험도를 분석하여 상기 사용자를 위한 알림을 제공하는 사용자 단말;을 포함한다.
상기 사용자 단말은 상기 영상으로부터 적어도 하나의 객체를 식별하는 제1 단계와, 상기 적어도 하나의 객체 별로 위험율을 산출하는 제2 단계와, 상기 위험율이 기 설정된 임계값을 초과하는 위험 객체를 결정하는 제3 단계와, 상기 위험 객체마다 위험 영역을 결정하는 제4 단계와, 상기 무인 비행 단말의 감시 비행 동안 상기 영상 내에서 상기 사용자의 움직임을 추적하는 제5 단계와, 상기 사용자의 움직임과 상기 위험 영역 사이의 중복이 검출되면 상기 알림을 소리 및 진동 중 적어도 하나를 통해 표출하는 제6 단계를 수행하도록 구현될 수 있다.
여기에서, 비행 영역은 상기 사용자의 위치를 중심으로 상공에 대칭 형성되는 가상의 3차원 입체 영역으로서 상기 연동이 개시된 시점을 기준으로 소정의 시간 동안 이루어지는 상기 무인 비행 단말의 예비 비행 동안 수집된 상기 영상 및 환경 데이터에 기반하여 크기 및 기울기가 결정될 수 있다.
상기 비행 영역은 상기 최소 높이의 독립된 범위마다 구분되어 형성되는 영역들로서, 소정의 지점들을 최소 거리로 비행하면서 해당 지점들 각각에서 상기 영상을 촬영하도록 비행 제어되는 제1 비행 영역, 랜덤하게 비행하면서 상기 영상을 연속하여 촬영하도록 비행 제어되는 제2 비행 영역 및 특정 위치에서 고정 비행하면서 상기 영상을 주기적으로 촬영하도록 비행 제어되는 제3 비행 영역을 포함할 수 있다.
상기 무인 비행 단말은 상기 예비 비행 동안 수집된 상기 영상으로부터 사용자와 지면 사이의 각도를 추출하고 해당 각도에 따라 상기 기울기를 조절하며, 상기 환경 데이터의 무선 신호 세기에 따라 상기 3차원 입체 영역의 최소 높이를 조절하고, 상기 환경 데이터의 날씨 정보에 따라 상기 3차원 입체 영역의 최대 높이를 조절할 수 있다.
상기 무인 비행 단말은 상기 예비 비행에 연속하는 감시 비행 동안 상기 비행 영역을 자율 비행하면서 상기 사용자 단말로부터 상기 갱신 신호를 수신한 경우, 상기 사용자 단말로부터 GPS 신호를 수신하고 상기 GPS 신호를 기초로 상기 사용자 단말의 위치 변화를 추적하여 상기 3차원 입체 영역의 중심을 동적으로 변경할 수 있다.
상기 사용자 단말은 상기 영상으로부터 적어도 하나의 객체를 식별하는 제1 단계와, 상기 적어도 하나의 객체 별로 위험율을 산출하는 제2 단계와, 상기 위험율이 기 설정된 임계값을 초과하는 위험 객체를 결정하는 제3 단계와, 상기 위험 객체마다 위험 영역을 결정하는 제4 단계와, 상기 무인 비행 단말의 감시 비행 동안 상기 영상 내에서 상기 사용자의 움직임을 추적하는 제5 단계와, 상기 사용자의 움직임과 상기 위험 영역 사이의 중복이 검출되면 상기 알림을 소리 및 진동 중 적어도 하나를 통해 표출하는 제6 단계를 수행하도록 구현될 수 있다.
실시예들 중에서, 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 방법은 무인 비행 단말 및 사용자 단말을 포함하는 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템에서 수행되는 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 방법에 있어서, 상기 무인 비행 단말 및 사용자 단말 간의 연동을 개시하는 단계; 사용자의 위치를 중심으로 상공에 대칭 형성되는 가상의 3차원 입체 영역으로 정의되는 비행 영역을 설정하는 단계; 상기 무인 비행 단말의 예비 비행 동안 수집된 영상 및 환경 데이터에 기반하여 상기 비행 영역의 크기 및 기울기를 갱신하는 단계; 상기 무인 비행 단말의 감시 비행 동안 상기 사용자 인근의 상황을 감시하여 위험을 감시하는 단계; 및 상기 사용자에게 상기 위험이 감지된 경우 상기 사용자 단말을 통해 상기 위험에 관한 알림을 제공하는 단계;를 포함한다.
개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
본 발명의 일 실시예에 따른 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템 및 방법은 사용자의 예초작업, 나무전지, 수목전정, 가지치기, 수목관리 등의 조경작업 중에 자율 비행을 통해 사용자에게 발생 가능한 위험 요소를 사전에 인지하여 알릴 수 있으며, 시스템 연동을 통해 위험상황 알림, 사고상황 전파, 긴급구조 대응 등에 효율적인 대처가 가능할 수 있다.알릴 수 있다.
본 발명의 일 실시예에 따른 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템 및 방법은 사용자의 움직임에 동적으로 변경되는 비행 영역 내에서 무인 비행체를 통해 사용자의 위험 상황을 감시함으로써 사용자의 안전을 보호할 수 있다.
도 1은 본 발명에 따른 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템을 설명하는 도면이다.
도 2는 도 1의 무인 비행 단말의 시스템 구성을 설명하는 도면이다.
도 3은 도 1의 사용자 단말의 시스템 구성을 설명하는 도면이다.
도 4는 본 발명에 따른 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템의 동작을 설명하는 순서도이다.
도 5 및 6은 본 발명에 따른 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 과정의 일 실시예를 설명하는 도면이다.
본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
도 1은 본 발명에 따른 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템을 설명하는 도면이다.
도 1을 참조하면, 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템(100)은 무인 비행 단말(110) 및 사용자 단말(130)을 포함할 수 있다.
무인 비행 단말(110)은 무인으로 자율 비행 가능하도록 구현된 드론 장치에 해당할 수 있다. 무인 비행 단말(110)은 사용자 단말(130)과 연동하여 동작할 수 있으며, 이를 위해 유선 또는 무선 네트워크를 통해 연결될 수 있다. 무인 비행 단말(110)은 자율 비행 기능을 포함하여 구현될 수 있으며, 소정의 동작 신호를 통해 자율 비행의 개시와 종료를 원격 제어하도록 구현될 수 있다. 한편, 무인 비행 단말(110)은 비행 제어를 위한 전용 컨트롤러(controller)와 연동하여 동작할 수 있으며, 사용자는 전용 컨트롤러를 통해 무인 비행 단말(110)의 동작을 수동으로 제어할 수 있다.
사용자 단말(130)은 사용자에 의해 운용되는 컴퓨팅 장치에 해당할 수 있다. 예를 들어, 사용자 단말(130)은 무인 비행 단말(110)과 연결되어 동작 가능한 스마트폰, 노트북 또는 컴퓨터로 구현될 수 있으며, 반드시 이에 한정되지 않고, 태블릿 PC 등을 포함하여 다양한 디바이스로도 구현될 수 있다.
또한, 사용자 단말(130)은 무인 비행 단말(110)과 연동하기 위한 전용 프로그램 또는 어플리케이션(또는 앱, app)을 설치하여 실행할 수 있다. 예를 들어, 사용자 단말(130)은 무인 비행 단말(110)의 기기를 등록하고 데이터 송·수신을 위한 접근 권한을 사전에 승인할 수 있다. 사용자 단말(130)은 전용 앱을 통해 무인 비행 단말(110)과의 연동을 위한 전용 인터페이스를 제공할 수 있으며, 이를 통해 수집되거나 또는 갱신되는 정보들을 활용하여 사용자의 위험 감시를 위한 동작을 수행할 수 있다.
또한, 사용자 단말(130)은 무인 비행 단말(110)과 네트워크를 통해 연결될 수 있고, 복수의 사용자 단말(130)들이 무인 비행 단말(110)과 동시에 연결될 수도 있다. 이와 반대로, 복수의 무인 비행 단말(110)들이 사용자 단말(130)과 동시에 연결될 수 있음은 물론이다.
도 2는 도 1의 무인 비행 단말의 시스템 구성을 설명하는 도면이다.
도 2를 참조하면, 무인 비행 단말(110)은 자율 비행 및 상황 감시를 위해 독립적으로 구현된 모듈들을 포함할 수 있다. 구체적으로, 무인 비행 단말(110)은 비행 통신 모듈(210), 카메라 모듈(220), 센서 모듈(230), 모드 제어 모듈(240), 영역 설정 모듈(250), 배터리 모듈(260) 및 비행 제어 모듈(270)을 포함할 수 있다. 무인 비행 단말(110)은 추가 기능 및 동작을 위해 다양한 모듈들을 선택적으로 추가 및 포함할 수 있음은 물론이다.
비행 통신 모듈(210)은 외부 시스템과의 무선 통신을 제어할 수 있다. 예를 들어, 비행 통신 모듈(210)은 블루투스, Wi-Fi, 위성통신, 셀룰러시스템뿐만 아니라 4G(LTE), 5G 이동통신 네트워크를 통한 무선 통신 기능을 제공할 수 있다. 비행 통신 모듈(210)은 고유 식별정보를 이용하여 외부 시스템과 통신할 수 있으며, 필요에 따라 고유 식별정보를 사전에 제공하여 등록시킬 수 있다.
카메라 모듈(220)은 무인 비행 단말(110)의 비행 동안 주변의 영상을 촬영할 수 있는 카메라의 동작을 제어할 수 있다. 카메라 모듈(220)은 촬영된 영상을 임시 저장하는 내부 메모리를 포함하여 구현될 수 있다. 카메라 모듈(220)은 적어도 하나의 카메라를 포함하여 구현될 수 있으며, 필요에 따라 서로 다른 유형의 카메라를 독립적으로 제어할 수 있다.
센서 모듈(230)은 무인 비행 단말(110)의 비행 동안 주변의 환경 데이터를 수집할 수 있는 다양한 센서들의 동작을 제어할 수 있다. 센서 모듈(230)은 필요에 따라 다양한 센서들을 포함할 수 있으며, 예를 들어, 온도 센서, 습도 센서, 먼지 센서, 가속도 센서, 자이로 센서, 기압 센서 등을 포함할 수 있다. 센서 모듈(230)은 다양한 센서들로부터 수집된 센서 정보를 저장하는 내부 메모리를 포함하여 구현될 수 있다.
모드 제어 모듈(240)은 무인 비행 단말(110)의 비행 모드를 제어 및 관리하는 동작을 수행할 수 있다. 구체적으로, 무인 비행 단말(110)은 사용자 단말(130)과 연동하여 사용자의 위험 상황을 감시하기 위해 사전에 정의된 다양한 비행 모드에 따라 동작할 수 있다. 예를 들어, 비행 모드에는 예비 비행 모드, 감시 비행 모드, 긴급 비행 모드, 자율 비행 모드 등이 포함될 수 있다. 예비 비행 모드는 무인 비행 단말(110)이 사용자의 주변에서 비행 영역을 조정하기 위한 비행 모드에 해당할 수 있다. 감시 비행 모드는 사용자의 위치를 기준으로 설정된 비행 영역을 비행하면서 사용자의 위험을 감시하기 위한 비행 모드에 해당할 수 있다. 긴급 비행 모드는 사용자에게 위험이 발생하거나 또는 발생할 확률이 높아 매우 긴급한 상황에 위험을 알리고 구조 요청을 전달하기 위한 비행 모드에 해당할 수 있다. 모드 제어 모듈(240)은 비행 제어 모듈(270)와 연동하여 비행 모드를 변경하거나 갱신할 수 있다.
영역 설정 모듈(250)은 무인 비행 단말(110)의 비행 영역을 설정하고 갱신하는 동작을 수행할 수 있다. 영역 설정 모듈(250)은 비행 제어 모듈(270)로부터 비행 영역에 관한 설정 신호 또는 갱신 신호를 수신하면 그에 관한 동작을 수행할 수 있다. 영역 설정 모듈(250)에 의해 설정 및 갱신된 비행 영역에 관한 정보는 비행 제어 모듈(270)에 전달되어 무인 비행 단말(110)의 비행 제어 과정에서 사용될 수 있다.
일 실시예에서, 비행 영역은 무인 비행 단말(110)의 비행 동작이 독립적으로 제어되는 독립적인 영역들로 구분될 수 있다. 즉, 비행 영역은 지면으로부터 최소 높이에 따라 독립적으로 구분되어 형성될 수 있다. 보다 구체적으로, 제1 비행 영역은 소정의 지점들을 최소 거리로 비행하면서 해당 지점들 각각에서 영상을 촬영하도록 비행 제어되는 비행 영역에 해당될 수 있다. 제2 비행 영역은 랜덤하게 비행하면서 영상을 연속하여 촬영하도록 비행 제어되는 비행 영역에 해당할 수 있다. 제3 비행 영역은 특정 위치에서 고정 비행하면서 영상을 주기적으로 촬영하도록 비행 제어되는 비행 영역에 해당할 수 있다. 즉, 제1 내지 제3 비행 영역들은 지면으로부터의 최소 높이에 관한 독립된 범위로 형성될 수 있다. 예를 들어, 제1 비행 영역은 최소 높이가 a ~ b인 비행 영역이고, 제2 비행 영역은 최소 높이가 b ~ c 인 비행 영역이며, 제3 비행 영역은 최소 높이가 c ~ d인 비행 영역으로 정의될 수 있다.
일 실시예에서, 영역 설정 모듈(250)은 예비 비행 동안 수집된 영상으로부터 사용자와 지면 사이의 각도를 추출하고 해당 각도에 따라 기울기를 조절하며, 환경 데이터의 무선 신호 세기에 따라 상기 3차원 입체 영역의 최소 높이를 조절하고, 환경 데이터의 날씨 정보에 따라 3차원 입체 영역의 최대 높이를 조절할 수 있다. 보다 구체적으로, 영역 설정 모듈(250)은 예비 비행 동안 수집된 영상으로부터 사용자와 지면 사이의 각도를 추출하고 해당 각도에 따라 기울기를 조절할 수 있다. 영역 설정 모듈(250)은 영상 분석을 통해 사용자가 위치하는 장소의 지면에 대한 2차원 평면 정보를 획득할 수 있다. 또한, 영역 설정 모듈(250)은 영상 분석을 통해 사용자의 방향 벡터를 도출할 수 있으며, 2차원 평면의 노말(Normal) 벡터와 사용자의 방향 벡터 간의 사이각을 산출할 수 있다. 영역 설정 모듈(250)은 사이각을 기초로 3차원 입체 영역의 기울기를 결정할 수 있다.
또한, 영역 설정 모듈(250)은 환경 데이터의 무선 신호 세기에 따라 3차원 입체 영역의 최소 높이를 조절할 수 있다. 즉, 사용자 단말(130)과의 무선 신호 세기가 작을수록 최소 높이는 작아질 수 있다. 영역 설정 모듈(250)은 환경 데이터의 날씨 정보에 따라 3차원 입체 영역의 최대 높이를 조절할 수 있다. 즉, 날씨가 흐리거나 비가 오는 등 날씨 상황이 나쁠수록 최대 높이는 작아질 수 있다.
배터리 모듈(260)은 무인 비행 단말(110)의 비행을 위한 전력을 공급하는 동작을 수행할 수 있다. 이를 위해, 배터리 모듈(260)은 충전용 배터리와 충전회로를 포함하여 구현될 수 있다. 배터리 모듈(260)은 배터리의 충전량을 모니터링할 수 있고, 충전량이 기 설정된 기준 이하로 떨어지는 경우 무인 비행 단말(110)의 비행을 제한하도록 비행 제어 모듈(270)에 관련 정보를 제공할 수 있다. 이 경우, 비행 제어 모듈(270)은 모드 제어 모듈(240)을 통해 비행 모드를 변경하고 무인 비행 단말(110)의 비행을 제한하거나 또는 기 설정된 위치로 비행을 제어할 수 있다. 충전 회로는 충전용 배터리의 충전을 위해 유선 충전 또는 무선 충전 기능을 제공할 수 있다.
비행 제어 모듈(270)은 무인 비행 단말(110)의 전체적인 동작을 제어하고, 비행 통신 모듈(210), 카메라 모듈(220), 센서 모듈(230), 모드 제어 모듈(240), 영역 설정 모듈(250) 및 배터리 모듈(260) 간의 제어 흐름 또는 데이터 흐름을 관리할 수 있다.
도 3은 도 1의 사용자 단말의 시스템 구성을 설명하는 도면이다.
도 3을 참조하면, 사용자 단말(130)은 무인 비행 단말(110)과 연동하여 동작하기 위해 독립적으로 구현된 모듈들을 포함할 수 있다. 구체적으로, 사용자 단말(130)은 단말 통신 모듈(310), 디스플레이 모듈(320), 연동 제어 모듈(330), 신호 생성 모듈(340), 위험도 분석 모듈(350), 진동 및 알람 모듈(360) 및 단말 제어 모듈(370)을 포함할 수 있다.
단말 통신 모듈(310)은 외부 시스템과의 무선 통신을 제어할 수 있다. 예를 들어, 단말 통신 모듈(310)은 블루투스, Wi-Fi, 위성통신, 셀룰러시스템뿐만 아니라 4G(LTE), 5G 이동통신 네트워크를 통한 무선 통신 기능을 제공할 수 있다. 단말 통신 모듈(310)은 무인 비행 단말(110)과 무선 통신으로 연결될 수 있으며, 무인 비행 단말(110)로부터의 데이터를 수신하여 다른 모듈로 전달할 수 있다.
디스플레이 모듈(320)은 사용자에게 정보를 시각화하여 제공하기 위한 디스플레이 패널을 포함하여 구현될 수 있다. 예를 들어, 디스플레이 모듈(320)은 무인 비행 단말(110)이 촬영한 영상을 재생하거나 또는 사용자에게 위험 상황을 알리기 위한 메시지를 디스플레이할 수 있다. 또한, 무인 비행 단말(110)과의 연동을 위한 전용 인터페이스를 시각화화여 표시할 수 있다. 사용자는 터치 기반의 인터페이스를 통해 무인 비행 단말(110)을 수동 제어할 수 있다.
연동 제어 모듈(330)은 무인 비행 단말(110)과의 연동을 제공하는 동작을 수행할 수 있다. 보다 구체적으로, 연동 제어 모듈(330)은 무인 비행 단말(110)에 관한 식별 정보를 저장 및 관리할 수 있고, 무인 비행 단말(110)과의 데이터 송·수신을 위한 권한을 설정 및 관리할 수 있다. 연동 제어 모듈(330)은 단말 제어 모듈(370)에 의해 연동 요청 신호을 수신한 경우 무인 비행 단말(110)의 등록 여부를 결정하여 연동 권한을 제공할 수 있다.
신호 생성 모듈(340)은 무인 비행 단말(110)과의 연동 과정에서 소정의 신호들을 생성하여 전달하는 동작을 수행할 수 있다. 예를 들어, 신호 생성 모듈(340)은 무인 비행 단말(110)과의 연동을 위한 연동 개시 신호를 생성하여 무인 비행 단말(110)에게 전송할 수 있고, 비행 영역의 갱신을 위한 갱신 신호를 생성하여 전송하거나 또는 위험 상황 발생 시 긴급 구조 신호를 생성하여 전송할 수 있다. 이때, 긴급 구조 신호는 무인 비행 단말(110)이나 외부 시스템으로 직접 전송될 수 있으며, 무인 비행 단말(110)의 중계를 통해 외부 시스템으로 전달될 수도 있다.
위험도 분석 모듈(350)은 무인 비행 단말(110)로부터 수신한 영상 및 환경 데이터를 분석하여 사용자 주변 상황의 위험도를 결정하는 동작을 수행할 수 있다. 구체적으로, 위험도 분석 모듈(350)은 영상 분석을 통해 사용자 주변에 위험 객체가 존재하는 식별하거나 또는 사용자의 움직임이 위험 영역으로 이동하는지를 검출할 수 있다. 또한, 위험도 분석 모듈(350)은 환경 데이터 분석을 통해 현재의 기상상황이나 사용자 주변의 환경을 통합 분석하여 사용자에게 발생 가능한 위험을 사전에 예측할 수 있다.
일 실시예에서, 위험도 분석 모듈(350)은 영상 및 환경 데이터에 관한 학습 데이터를 학습하여 구축된 위험 예측 모델을 통해 사용자의 위험 상황을 예측할 수 있다. 보다 구체적으로, 위험도 분석 모듈(350)은 영상으로부터 추출된 제1 특징 벡터(feature vector)와 환경 데이터로부터 추출된 제2 특징 벡터를 기초로 학습 데이터를 생성하고 비지도 학습(unsupervised learning)을 통해 사용자의 위험도를 확률적으로 예측하는 위험 예측 모델을 구축할 수 있다.
이때, 제1 특징 벡터는 CNN(Convolutional Neural Network)을 통해 획득할 수 있으며, 필요에 따라 물체 분류(object classification)와 물체 위치식별(objection localization)의 결과를 포함하여 생성될 수 있다. 제2 특징 벡터는 환경 데이터들의 센서 정보가 각 차원으로 이루어진 특징 벡터로 구현될 수 있다.
한편, 위험도 분석 모듈(350)은 위험 예측 모델 구축을 위해 독립된 학습 서버와 연동하여 동작할 수 있다. 학습 데이터의 구축과 학습 알고리즘의 실행을 위해서는 고용량의 데이터베이스와 고성능의 연산 유닛이 요구되는 점에서 높은 예측 정확도를 달성하기 위하여 외부 학습 서버를 통해 충분한 사전학습을 수행할 수 있으며, 위험도 분석 모듈(350)은 기 설정된 기준 이상의 정확도를 달성한 위험 예측 모델을 학습 서버로부터 수신하여 위험도 분석 과정에 활용할 수 있다.
진동 및 알람 모듈(360)은 사용자의 위험 상황이 감지된 경우 사용자에게 위험 상황에 관한 알림을 제공하도록 구현될 수 있다. 예를 들어, 진동 및 알람 모듈(360)은 사용자 단말(130) 상에서 물리적인 진동을 제공하여 사용자에게 위험 상황을 알릴 수 있으며, 소정의 알람음을 재생하여 사용자의 주의를 환기시킬 수 있다. 또한, 진동 및 알람 모듈(360)은 디스플레이 모듈(320)과 연동하여 위험 상황에 관한 시각화된 정보를 표출할 수도 있다. 한편, 진동 및 알람 모듈(360)은 진동 및 소리 이외에도 다양한 채널을 통해 사용자에게 위험 상황을 알리도록 구현될 수 있다.
단말 제어 모듈(370)은 사용자 단말(130)의 전체적인 동작을 제어하고, 단말 통신 모듈(310), 디스플레이 모듈(320), 연동 제어 모듈(330), 신호 생성 모듈(340), 위험도 분석 모듈(350), 진동 및 알람 모듈(360) 간의 제어 흐름 또는 데이터 흐름을 관리할 수 있다.
도 4는 본 발명에 따른 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템의 동작을 설명하는 순서도이다.
도 4를 참조하면, 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템(100)은 본 발명에 따른 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 방법을 실행할 수 있다. 보다 구체적으로, 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템(100)은 무인 비행 단말(110) 및 사용자 단말(130) 간의 연동을 개시할 수 있다(단계 S410).
드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템(100)은 사용자의 위치를 중심으로 상공에 대칭 형성되는 가상의 3차원 입체 영역으로 정의되는 비행 영역을 설정할 수 있다(단계 S420). 여기에서, 사용자의 위치는 사용자 단말(130)로부터 수신되는 GPS 신호를 기초로 결정될 수 있다.
드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템(100)은 무인 비행 단말(110)의 예비 비행 동안 수집된 영상 및 환경 데이터에 기반하여 비행 영역의 크기 및 기울기를 갱신할 수 있다(단계 S430). 즉, 예비 비행을 통해 사용자가 현재 있는 장소의 지형이나 장애물들을 고려하여 무인 비행 단말(110)의 비행 영역이 조정될 수 있다.
드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템(100)은 무인 비행 단말(110)의 감시 비행 동안 사용자 인근의 상황을 감시하여 위험을 감시할 수 있으며, 사용자에게 위험이 감지된 경우 사용자 단말(130)을 통해 위험에 관한 알림을 제공할 수 있다(단계 S440).
도 5 및 6은 본 발명에 따른 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 과정의 일 실시예를 설명하는 도면이다.
도 5를 참조하면, 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템(100)은 무인 비행 단말(110)과 사용자 단말(130) 간의 연동을 제어할 수 있다. 즉, 무인 비행 단말(110)의 동작이 개시되는 경우 무인 비행 단말(110)은 사용자 단말(130)에게 연동 요청 신호를 생성하여 전송할 수 있으며, 사용자 단말(130)은 무인 비행 단말(110)의 식별 정보를 기초로 등록 여부를 결정하고 연동을 위한 연동 개시 신호를 생성하여 전송할 수 있다.
드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템(100)은 연동이 개시되는 경우, 무인 비행 단말(110)을 통해 비행 영역을 설정할 수 있다. 즉, 무인 비행 단말(110)은 영역 설정 모듈(250)을 통해 사용자의 현재 위치를 중심으로 상공에 대칭적으로 형성되는 가상의 3차원 입체 영역을 비행 영역으로 설정할 수 있다. 이때, 3차원 입체 영역은 기본적으로 직육면체의 형상으로 정의될 수 있으나, 반드시 이에 한정되지 않음은 물론이다. 영역 설정 모듈(250)은 사용자의 현재 위치를 중심으로 주변 상공 영역을 커버하는 비행 영역을 설정하여 무인 비행 단말(110)의 비행 제어 모듈(270)에게 전달할 수 있다.
이후, 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템(100)은 무인 비행 단말(110)의 비행 모드를 제어하여 무인 비행 단말(110)이 예비 비행하도록 할 수 있다. 무인 비행 단말(110)은 연동이 개시된 시점을 기준으로 소정의 시간 동안 기 설정된 비행 영역 내에서 예비 비행을 수행할 수 있으며, 사용자 주변의 영상 및 환경 데이터를 수집할 수 있다. 무인 비행 단말(110)은 영역 설정 모듈(250)을 통해 예비 비행 동안 수집된 정보를 기초로 비행 영역을 갱신할 수 있다(S510). 즉, 영역 설정 모듈(250)은 예비 비행 동안 수집된 영상 및 환경 데이터에 기반하여 비행 영역의 크기 및 기울기를 결정할 수 있다.
예를 들어, 비행 영역이 사용자의 위치를 중심으로 수평면에 평행하고 20m의 모서리 길이는 갖는 정육면체로 설정된 경우에 있어서, 예비 비행 동안 수집된 정보에 따라 사용자가 현재 경사진 곳에 위치한 것으로 결정되면 영역 설정 모듈(250)은 비행 영역의 기울기를 지형의 경사에 맞춰 조정할 수 있다. 또한, 현재 날씨가 흐리거나 또는 강한 바람이 발생하는 것으로 결정되면 영역 설정 모듈(250)은 비행 영역의 크기를 이전보다 줄일 수 있다.
예비 비행이 종료된 경우, 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템(100)은 무인 비행 단말(110)의 비행 모드를 제어하여 무인 비행 단말(110)이 감시 비행하도록 제어할 수 있다. 무인 비행 단말(110)은 감시 비행 동안 비행 영역을 비행하면서 사용자 인근의 상황에 관한 영상과 환경 데이터를 수집하여 사용자 단말(130)에게 전송할 수 있다.
이후, 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템(100)은 사용자의 움직임에 따라 비행 영역을 동적으로 갱신할 수 있다(S520). 즉, 사용자 단말(130)은 사용자의 이동이 감지된 경우 무인 비행 단말(110)에게 비행 영역 갱신 신호를 생성하여 전송할 수 있다. 이때, 사용자 단말(130)은 사용자의 위치(또는 높이)가 소정의 기준 거리(또는 기준 높이)를 초과하여 변경된 경우 비행 영역 갱신 신호를 생성할 수 있다. 한편, 사용자 단말(130)의 내부 배터리 충전량이 임계충전량 이하로 떨어지는 경우에도 사용자 단말(130)에 의해 비행 영역 갱신 신호가 생성될 수 있다. 무인 비행 단말(110)은 감시 비행 중에 사용자 단말(130)로부터 비행 영역 갱신 신호를 수신하는 경우 사용자 단말(130)로부터 GPS 신호를 수신하여 사용자의 위치를 추적할 수 있다.
또한, 무인 비행 단말(110)은 사용자의 위치가 변경된 경우 비행 영역의 갱신 동작을 수행할 수 있다. 즉, 무인 비행 단말(110)은 영역 설정 모듈(250)을 통해 사용자의 위치를 기준으로 비행 영역의 중심 위치를 변경할 수 있다. 이때, 비행 영역의 중심 위치는 3차원 입체 영역의 중심 위치에 대응될 수 있다. 결과적으로, 무인 비행 단말(110)은 사용자 단말(130)의 위치 변화를 추적하여 3차원 입체 영역의 중심을 동적으로 변경할 수 있다.
도 6을 참조하면, 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템(100)은 무인 비행 단말(110)의 감시 비행 동안 수집된 영상 및 환경 데이터를 기초로 사용자 단말(130)을 통해 사용자의 위험을 감지하고 이를 사용자에게 알릴 수 있다. 보다 구체적으로, 사용자 단말(130)은 무인 비행 단말(110)로부터 영상 및 환경 데이터를 수신할 수 있다.
먼저, 사용자 단말(130)은 영상으로부터 적어도 하나의 객체를 식별할 수 있다(S610). 이때, 객체 식별을 위해 영상에 관한 객체 탐지(object detection) 알고리즘이 활용될 수 있다. 사용자 단말(130)은 영상 내에 존재하는 적어도 하나의 객체를 독립적으로 식별할 수 있다.
이후, 사용자 단말(130)은 적어도 하나의 객체 별로 위험율을 산출할 수 있다(S620). 사용자 단말(130)은 객체의 클래스(class), 크기(size), 위치(location) 등을 기초로 해당 객체의 위험 정도를 구체적인 수치값으로 표현할 수 있다. 또한, 사용자 단말(130)은 영상의 적어도 3개 이상의 프레임 이미지에서 동일 객체가 검출된 경우 각 프리임 이미지 별로 위험율을 산출하고 산출된 위험율의 평균을 통해 해당 객체의 위험율을 최종 결정할 수 있다. 이때, 3개 이상의 프레임 이미지는 적어도 하나 이상의 비행 영역들(예를 들어, 제1 내지 제3 비행 영역들)에서 촬영된 영상으로부터 획득될 수 있다. 한편, 사용자 단말(130)은 위험율 예측을 위한 기계학습 모델을 활용하여 위험율을 예측할 수도 있다.
그 다음, 사용자 단말(130)은 위험율이 기 설정된 임계값을 초과하는 위험 객체를 결정할 수 있다(S630). 사용자 단말(130)은 영상 내에 존재하는 객체 별로 위험율을 산출하고 위험율이 기 설정된 임계값을 초과하는 경우 해당 객체를 위험 객체로서 검출할 수 있다. 한편, 사용자 단말(130)은 영상 내에서 위험 객체가 기준 개수 이상 동시에 검출된 경우 사용자에게 주의 알림을 생성하여 제공할 수 있다.
이후, 사용자 단말(130)은 위험 객체마다 위험 영역을 결정할 수 있다(S640). 위험 영역은 위험 객체의 위치를 중심으로 설정될 수 있으며, 위험 객체의 클래스 및 크기에 따라 결정되는 반경 이내의 영역으로 정의될 수 있다. 만약 영상 내에 복수의 위험 객체가 존재하고 각 위험 객체의 위험 영역이 결정된 상태에서 위험 영역 간의 중첩 영역이 존재하는 경우 중첩 영역은 제1 위험 영역으로 결정되고 그 이외의 위험 영역은 제2 위험 영역으로 결정될 수 있다. 즉, 위험 영역은 위험 정도에 따라 등급이 구분되어 설정될 수 있다.
이후, 사용자 단말(130)은 무인 비행 단말(110)의 감시 비행 동안 영상 내에서 사용자의 움직임을 추적할 수 있으며(S650), 사용자의 움직임과 위험 영역 사이의 중복이 검출되면 알림을 소리 및 진동 중 적어도 하나를 통해 표출할 수 있다(S660). 즉, 사용자가 위험 영역 내로 이동하는 경우 사용자에게 위험 상황이 발생할 가능성이 매우 높은 상황이므로 사용자 단말(130)은 위험 상황을 결정하여 사용자에게 소정의 알림을 제공하도록 동작할 수 있다. 이때, 사용자에게 제공되는 알림은 소리, 진동, 메시지 등 다양한 형태로 구현되어 제공될 수 있다. 또한, 사용자 단말(130)은 무인 비행 단말(110)에게 위험 신호를 생성하여 전송할 수 있으며, 무인 비행 단말(110)은 비행 모드를 변경하여 긴급 비행을 수행할 수 있다.
일 실시예에서, 위험 영역이 등급에 따라 구분되어 설정된 경우 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템(100)은 위험 알림 동작을 독립적으로 제공할 수 있다. 예를 들어, 사용자의 움직임이 제2 위험 영역에 중첩되는 경우 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템(100)은 사용자 단말(130)을 통해 사용자에게 위험 상황을 알릴 수 있으며, 사용자의 움직임이 제1 위험 영역에 중첩되는 경우 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템(100)은 무인 비행 단말(110) 및 사용자 단말(130)을 통해 사용자에게 위험 상황을 알릴 수 있다. 이 경우, 무인 비행 단말(110)은 긴급 비행을 통해 비행 영역을 벗어나 지정된 위치에서 위험 알림 비행을 수행할 수 있다. 즉, 위험 알림 비행은 무인 비행 단말(110)의 소정의 패턴에 따라 비행함으로써 사용자에게 위험 상황을 알리기 위한 비행 동작에 해당할 수 있다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
100: 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템
110: 무인 비행 단말 130: 사용자 단말
210: 비행 통신 모듈 220: 카메라 모듈
230: 센서 모듈 240: 모드 제어 모듈
250: 영역 설정 모듈 260: 배터리 모듈
270: 비행 제어 모듈
310: 단말 통신 모듈 320: 디스플레이 모듈
330: 연동 제어 모듈 340: 신호 생성 모듈
350: 위험도 분석 모듈 360: 진동 및 알람 모듈
370: 단말 제어 모듈

Claims (6)

  1. 동작 모드에 따라 사용자의 위치를 중심으로 동적 설정되는 비행 영역을 자율 비행하면서 사용자 인근의 상황을 감시하도록 구현되는 무인 비행 단말; 및
    상기 무인 비행 단말과 연동하고 상기 사용자의 위치를 기초로 상기 비행 영역에 관한 갱신 신호를 생성하며 상기 상황에 관한 영상 및 환경 데이터를 수신하면서 상기 상황의 위험도를 분석하여 상기 사용자를 위한 알림을 제공하는 사용자 단말;을 포함하고,
    상기 사용자 단말은
    상기 영상으로부터 적어도 하나의 객체를 식별하는 제1 단계와,
    상기 적어도 하나의 객체 별로 위험율을 산출하는 제2 단계와,
    상기 위험율이 기 설정된 임계값을 초과하는 위험 객체를 결정하는 제3 단계와,
    상기 위험 객체마다 위험 영역을 결정하는 제4 단계와,
    상기 무인 비행 단말의 감시 비행 동안 상기 영상 내에서 상기 사용자의 움직임을 추적하는 제5 단계와,
    상기 사용자의 움직임과 상기 위험 영역 사이의 중복이 검출되면 상기 알림을 소리 및 진동 중 적어도 하나를 통해 표출하는 제6 단계를 수행하도록 구현되는
    상기 비행 영역은 상기 사용자의 위치를 중심으로 상공에 대칭 형성되는 가상의 3차원 입체 영역으로서 상기 연동이 개시된 시점을 기준으로 소정의 시간 동안 이루어지는 상기 무인 비행 단말의 예비 비행 동안 수집된 상기 영상 및 환경 데이터에 기반하여 크기 및 기울기가 결정되는 것을 특징으로 하는 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템.
  2. 제1항에 있어서, 상기 비행 영역은
    상기 사용자의 위치를 중심으로 상공에 대칭 형성되는 가상의 3차원 입체 영역으로서 상기 연동이 개시된 시점을 기준으로 소정의 시간 동안 이루어지는 상기 무인 비행 단말의 예비 비행 동안 수집된 상기 영상 및 환경 데이터에 기반하여 크기 및 기울기가 결정되는 것을 특징으로 하는 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템.
  3. 제2항에 있어서, 상기 비행 영역은
    지면으로부터의 높이에 관한 독립된 범위마다 구분되어 형성되는 영역들로서, 소정의 지점들을 최소 거리로 비행하면서 해당 지점들 각각에서 상기 영상을 촬영하도록 비행 제어되는 제1 비행 영역, 랜덤하게 비행하면서 상기 영상을 연속하여 촬영하도록 비행 제어되는 제2 비행 영역 및 특정 위치에서 고정 비행하면서 상기 영상을 주기적으로 촬영하도록 비행 제어되는 제3 비행 영역을 포함하는 것을 특징으로 하는 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템.
  4. 제1항에 있어서, 상기 무인 비행 단말은
    상기 예비 비행 동안 수집된 상기 영상으로부터 사용자와 지면 사이의 각도를 추출하고 해당 각도에 따라 상기 기울기를 조절하며, 상기 환경 데이터의 무선 신호 세기에 따라 상기 3차원 입체 영역의 가장 낮은 높이를 조절하고, 상기 환경 데이터의 날씨 정보에 따라 상기 3차원 입체 영역의 가장 높은 높이를 조절하는 것을 특징으로 하는 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템.
  5. 제1항에 있어서, 상기 무인 비행 단말은
    상기 예비 비행에 연속하는 감시 비행 동안 상기 비행 영역을 자율 비행하면서 상기 사용자 단말로부터 상기 갱신 신호를 수신한 경우, 상기 사용자 단말로부터 GPS 신호를 수신하고 상기 GPS 신호를 기초로 상기 사용자 단말의 위치 변화를 추적하여 상기 3차원 입체 영역의 중심을 동적으로 변경하는 것을 특징으로 하는 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템.
  6. 무인 비행 단말 및 사용자 단말을 포함하는 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템에서 수행되는 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 방법에 있어서,
    상기 무인 비행 단말 및 사용자 단말 간의 연동을 개시하는 단계;
    사용자의 위치를 중심으로 상공에 대칭 형성되는 가상의 3차원 입체 영역으로 정의되는 비행 영역을 설정하는 단계;
    상기 무인 비행 단말의 예비 비행 동안 수집된 영상 및 환경 데이터에 기반하여 상기 비행 영역의 크기 및 기울기를 갱신하는 단계;
    상기 무인 비행 단말의 감시 비행 동안 상기 사용자 인근의 상황을 감시하여 위험을 감시하는 단계; 및
    상기 사용자에게 상기 위험이 감지된 경우 상기 사용자 단말을 통해 상기 위험에 관한 알림을 제공하는 단계;를 포함하는 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 방법.
KR1020210126646A 2021-09-24 2021-09-24 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템 및 방법 KR102350668B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210126646A KR102350668B1 (ko) 2021-09-24 2021-09-24 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210126646A KR102350668B1 (ko) 2021-09-24 2021-09-24 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR102350668B1 true KR102350668B1 (ko) 2022-01-12

Family

ID=79339632

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210126646A KR102350668B1 (ko) 2021-09-24 2021-09-24 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR102350668B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102416783B1 (ko) * 2022-04-05 2022-07-05 아주대학교산학협력단 무선 통신 서비스를 제공하는 스케줄링 장치 및 방법

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101736158B1 (ko) * 2015-04-22 2017-05-17 (주)대우건설 스마트 정보전달 장치를 이용한 건설현장의 기술 안전 통합 관리 시스템 및 이의 실행 방법
KR101788721B1 (ko) 2017-04-12 2017-10-23 그리드스페이스(주) 무선통신망 기반의 무인비행체 자동운항 운영 방법 및 시스템
US20180232904A1 (en) * 2017-02-10 2018-08-16 Seecure Systems, Inc. Detection of Risky Objects in Image Frames
WO2019045933A1 (en) * 2017-09-01 2019-03-07 Qualcomm Incorporated ROBOTIC PERSONAL SAFETY VEHICLE
KR102126498B1 (ko) * 2019-11-15 2020-06-25 한국건설기술연구원 영상 인식 기반의 위험상황 감지방법, 위험 관리 장치 및 위험상황 감지시스템
KR20200109948A (ko) * 2019-03-15 2020-09-23 농업법인회사 (유) 로하스 드론을 이용한 건설현장 공정관리 시스템 및 그를 이용한 건설현장 공정관리 방법
KR102170748B1 (ko) * 2020-01-07 2020-10-27 (주)영신디엔씨 IoT 기반 스마트 건설을 위한 3차원 공간정보 현장 관리 플랫폼 시스템
KR20210015624A (ko) * 2019-08-01 2021-02-10 한국전자통신연구원 드론 기반 재난상황 관제 방법 및 시스템
KR20210029959A (ko) * 2019-09-09 2021-03-17 선문대학교 산학협력단 시각 장애인 안내용 드론 시스템

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101736158B1 (ko) * 2015-04-22 2017-05-17 (주)대우건설 스마트 정보전달 장치를 이용한 건설현장의 기술 안전 통합 관리 시스템 및 이의 실행 방법
US20180232904A1 (en) * 2017-02-10 2018-08-16 Seecure Systems, Inc. Detection of Risky Objects in Image Frames
KR101788721B1 (ko) 2017-04-12 2017-10-23 그리드스페이스(주) 무선통신망 기반의 무인비행체 자동운항 운영 방법 및 시스템
WO2019045933A1 (en) * 2017-09-01 2019-03-07 Qualcomm Incorporated ROBOTIC PERSONAL SAFETY VEHICLE
KR20200109948A (ko) * 2019-03-15 2020-09-23 농업법인회사 (유) 로하스 드론을 이용한 건설현장 공정관리 시스템 및 그를 이용한 건설현장 공정관리 방법
KR20210015624A (ko) * 2019-08-01 2021-02-10 한국전자통신연구원 드론 기반 재난상황 관제 방법 및 시스템
KR20210029959A (ko) * 2019-09-09 2021-03-17 선문대학교 산학협력단 시각 장애인 안내용 드론 시스템
KR102126498B1 (ko) * 2019-11-15 2020-06-25 한국건설기술연구원 영상 인식 기반의 위험상황 감지방법, 위험 관리 장치 및 위험상황 감지시스템
KR102170748B1 (ko) * 2020-01-07 2020-10-27 (주)영신디엔씨 IoT 기반 스마트 건설을 위한 3차원 공간정보 현장 관리 플랫폼 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102416783B1 (ko) * 2022-04-05 2022-07-05 아주대학교산학협력단 무선 통신 서비스를 제공하는 스케줄링 장치 및 방법

Similar Documents

Publication Publication Date Title
US11242144B2 (en) Aerial vehicle smart landing
US10824169B1 (en) Event-based vehicle operation and event remediation
KR101894409B1 (ko) 드론 관제 시스템 및 방법
CN107667521B (zh) 个人感测无人机
Liu et al. A review of rotorcraft unmanned aerial vehicle (UAV) developments and applications in civil engineering
US20210311476A1 (en) Patrol robot and patrol robot management system
US10807591B1 (en) Vehicle disaster detection and response
US11899473B2 (en) Counter drone system
CN103135550A (zh) 用于电力巡线的无人机多重避障控制方法
WO2018103716A1 (zh) 复合飞行控制方法和系统、飞行器
Ji et al. Obstacle detection and recognition in farmland based on fusion point cloud data
CN109035665A (zh) 一种新型森林火灾预警系统及火灾预警方法
CN107783547A (zh) 灾后救援旋翼无人机避障系统及方法
KR102350668B1 (ko) 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템 및 방법
CN110720198A (zh) 用于电子围栏的系统和方法
CN113534838A (zh) 一种基于人工势场法的改进无人机航迹规划方法
CN110647170A (zh) 一种基于无人机的航标巡检装置与方法
CN210835732U (zh) 一种基于无人机的航标巡检装置
CN115760976A (zh) 一种变电站非接触式无感变电作业风险识别方法
EP3731053B1 (en) Management device, management system, moving body and program
EP3761064B1 (en) Position estimation device, moving body, position estimation method and program
CN106598065A (zh) 一种无人机的双目-超声波融合避障控制方法
CN107390707A (zh) 无人机控制系统
Šul'aj et al. UAV management system for the smart city
CN207281593U (zh) 无人机控制系统

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant