KR102300348B1 - 실시간 이미지 분석을 기반으로 현장 상황을 공유하는 무인 항공기, 및 제어 방법 - Google Patents
실시간 이미지 분석을 기반으로 현장 상황을 공유하는 무인 항공기, 및 제어 방법 Download PDFInfo
- Publication number
- KR102300348B1 KR102300348B1 KR1020210047980A KR20210047980A KR102300348B1 KR 102300348 B1 KR102300348 B1 KR 102300348B1 KR 1020210047980 A KR1020210047980 A KR 1020210047980A KR 20210047980 A KR20210047980 A KR 20210047980A KR 102300348 B1 KR102300348 B1 KR 102300348B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- unmanned aerial
- aerial vehicle
- processor
- state
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 14
- 238000010191 image analysis Methods 0.000 title description 4
- 238000004891 communication Methods 0.000 claims abstract description 35
- 238000013473 artificial intelligence Methods 0.000 claims description 34
- 238000001514 detection method Methods 0.000 abstract description 14
- 230000000694 effects Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000005856 abnormality Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 241001465754 Metazoa Species 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000036541 health Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- H04N5/225—
-
- B64C2201/127—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
Abstract
무인 항공기가 개시된다. 본 무인 항공기는, 카메라, 프로세서, 통신부, 무인 항공기의 비행을 제어하는 구동 제어부를 포함한다. 프로세서는, 무인 항공기의 비행 중 카메라를 통해 적어도 하나의 이미지를 획득하고, 획득된 이미지에 포함된 적어도 하나의 객체를 감지하고, 객체가 감지된 경우, 통신부를 통해 객체를 포함하는 이미지를 관제 서버로 전송한다.
Description
본 개시는 탐지를 위한 무인 항공기에 관한 것으로, 보다 상세하게는, 이미지 분석을 기반으로 현장 상황을 공유하는 무인 항공기에 관한 것이다.
해상사고의 골든 타임에 맞춰 구조 활동을 하기 위한 다양한 형태의 탐지시스템이 이용되고 있다.
특히, 무인 항공기를 이용한 수색 시스템은, 사고 발생 시 수색 인원의 파견 없이도 대상 구역의 정찰 내지 탐지를 수행할 수 있다는 점에서 장점이 있다.
다만, 종래의 무인 항공기 시스템은, 주로 사고 발생 이후 해상에서의 수색이나 무인 계류장치 등에 국한되어 있을 뿐, 사고에 대한 선제적 탐지 내지는 초동조치와 관련된 효과는 미미하다.
본 개시는, 탐지 대상 구역의 이미지를 순차적으로 분석하여 객체를 자동으로 감지하고, 감지된 객체에 대한 이미지를 관제 서버로 전송하여 탐지 상황을 유동적으로 공유하는 무인 항공기를 제공한다.
본 개시의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 개시의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 개시의 실시 예에 의해 보다 분명하게 이해될 것이다. 또한, 본 개시의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
본 개시의 일 실시 예에 따른 무인 항공기는, 카메라, 프로세서, 통신부, 상기 무인 항공기의 비행을 제어하는 구동 제어부를 포함한다. 상기 프로세서는, 상기 무인 항공기의 비행 중 상기 카메라를 통해 적어도 하나의 이미지를 획득하고, 상기 획득된 이미지에 포함된 적어도 하나의 객체를 감지하고, 상기 객체가 감지된 경우, 상기 통신부를 통해 상기 객체를 포함하는 이미지를 관제 서버로 전송한다.
상기 프로세서는, 상기 카메라를 통해 획득된 이미지 내에 기설정된 모양 또는 기설정된 컬러의 객체가 존재하는지 여부를 식별하고, 상기 기설정된 모양 또는 상기 기설정된 컬러의 객체가 존재하는 경우, 상기 객체를 포함하는 이미지를 상기 관제 서버로 전송할 수 있다.
상기 프로세서는, 적어도 하나의 기설정된 객체를 식별하도록 훈련된 인공지능 모델에 상기 획득된 이미지를 입력하고, 상기 인공지능 모델의 출력을 기반으로 적어도 하나의 객체를 인식할 수 있다.
이 경우, 상기 프로세서는, 상기 카메라를 통해 상기 인식된 객체에 대한 복수의 이미지를 획득하고, 상기 획득된 복수의 이미지를 기반으로 상기 객체의 상태를 판단하고, 상기 객체의 상태가 기설정된 제1 상태인 경우, 상기 객체의 상태에 대한 정보를 상기 통신부를 통해 상기 관제 서버로 전송하고, 상기 객체의 상태가 기설정된 제2 상태인 경우, 상기 객체의 상태에 대한 정보를 상기 통신부를 통해 상기 관제 서버 및 구조대 서버로 전송할 수도 있다.
한편, 상기 카메라는, RGB 카메라 및 열상 카메라를 포함할 수 있다. 여기서, 상기 프로세서는, 상기 열상 카메라를 통해 획득된 열상 이미지를 기반으로 적어도 하나의 객체가 감지되는 경우, 상기 감지된 객체를 촬영하도록 상기 RGB 카메라를 제어하고, 상기 RGB 카메라를 통해 획득된 RGB 이미지를 객체를 식별하도록 훈련된 인공지능 모델에 입력하여 상기 객체를 식별할 수 있다.
여기서, 상기 프로세서는, 상기 열상 이미지를 통해 객체의 존재가 감지되었으나 상기 RGB 이미지를 통해 상기 객체가 식별되지 않는 경우, 상기 열상 이미지 및 상기 RGB 이미지를 상기 관제 서버로 전송하고, 상기 관제 서버로부터 상기 감지된 객체를 추적하기 위한 제어 신호가 수신되면, 상기 감지된 객체를 추적하기 위한 상기 무인 항공기의 비행을 상기 구동 제어부를 통해 제어할 수도 있다.
또한, 상기 프로세서는, 상기 감지된 객체를 추적하기 위한 제어 신호가 수신되면, 상기 RGB 이미지를 기반으로 상기 인공지능 모델을 훈련시킬 수도 있다.
한편, 상기 프로세서는, 상기 카메라를 통해 촬영된 일 구역의 이미지를 과거에 촬영된 상기 구역의 이미지와 비교 분석하고, 상기 촬영된 이미지가 상기 과거에 촬영된 이미지와 다른 것으로 식별되는 경우, 상기 촬영된 이미지를 객체를 인식하도록 훈련된 인공지능 모델에 입력하고, 상기 인공지능 모델의 출력에 따라 적어도 하나의 객체가 식별되면, 상기 촬영된 이미지를 상기 관제 서버로 전송할 수도 있다.
본 개시의 일 실시 예에 따른 무인 항공기의 제어 방법은, 무인 항공기의 비행 중 카메라를 통해 적어도 하나의 이미지를 획득하는 단계, 상기 획득된 이미지에 포함된 적어도 하나의 객체를 감지하는 단계, 상기 객체가 감지된 경우, 상기 객체가 포함된 이미지를 관제 서버로 전송하는 단계를 포함한다.
본 개시에 따른 무인 항공기 및 제어 방법은, 카메라 기반 객체 감지 여부에 따라 객체 이미지를 전송하여 관제 서버와 효율적인 통신을 수행한다는 장점이 있다.
본 개시에 따른 무인 항공기 및 제어 방법은, 다양한 종류의 카메라 및 센서를 사용하여 객체 인식의 정확도를 높이고, 관제 서버의 피드백을 기반으로 객체 인식의 정확도를 향상시킬 수도 있다는 효과가 있다.
도 1은 본 개시의 일 실시 예에 따른 무인 항공기의 개략적인 동작을 설명하기 위한 도면,
도 2는 본 개시의 일 실시 예에 따른 무인 항공기의 구성을 설명하기 위한 블록도,
도 3은 본 개시의 일 실시 예에 따른 무인 항공기의 동작(제어 방법)을 설명하기 위한 흐름도,
도 4는 본 개시의 일 실시 예에 따른 무인 항공기가 객체의 상태에 따라 다양한 외부 장치와 상황을 공유하는 동작을 설명하기 위한 알고리즘, 그리고
도 5는 본 개시의 다양한 실시 예에 따른 무인 항공기의 구성을 설명하기 위한 블록도이다.
도 2는 본 개시의 일 실시 예에 따른 무인 항공기의 구성을 설명하기 위한 블록도,
도 3은 본 개시의 일 실시 예에 따른 무인 항공기의 동작(제어 방법)을 설명하기 위한 흐름도,
도 4는 본 개시의 일 실시 예에 따른 무인 항공기가 객체의 상태에 따라 다양한 외부 장치와 상황을 공유하는 동작을 설명하기 위한 알고리즘, 그리고
도 5는 본 개시의 다양한 실시 예에 따른 무인 항공기의 구성을 설명하기 위한 블록도이다.
본 개시에 대하여 구체적으로 설명하기에 앞서, 본 명세서 및 도면의 기재 방법에 대하여 설명한다.
먼저, 본 명세서 및 청구범위에서 사용되는 용어는 본 개시의 다양한 실시 예들에서의 기능을 고려하여 일반적인 용어들을 선택하였다. 하지만, 이러한 용어들은 당해 기술 분야에 종사하는 기술자의 의도나 법률적 또는 기술적 해석 및 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 일부 용어는 출원인이 임의로 선정한 용어도 있다. 이러한 용어에 대해서는 본 명세서에서 정의된 의미로 해석될 수 있으며, 구체적인 용어 정의가 없으면 본 명세서의 전반적인 내용 및 당해 기술 분야의 통상적인 기술 상식을 토대로 해석될 수도 있다.
또한, 본 명세서에 첨부된 각 도면에 기재된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 설명 및 이해의 편의를 위해서 서로 다른 실시 예들에서도 동일한 참조번호 또는 부호를 사용하여 설명한다. 즉, 복수의 도면에서 동일한 참조 번호를 가지는 구성요소를 모두 도시되어 있다고 하더라도, 복수의 도면들이 하나의 실시 예를 의미하는 것은 아니다.
또한, 본 명세서 및 청구범위에서는 구성요소들 간의 구별을 위하여 "제1", "제2" 등과 같이 서수를 포함하는 용어가 사용될 수 있다. 이러한 서수는 동일 또는 유사한 구성요소들을 서로 구별하기 위하여 사용하는 것이며 이러한 서수 사용으로 인하여 용어의 의미가 한정 해석되어서는 안 된다. 일 예로, 이러한 서수와 결합된 구성요소는 그 숫자에 의해 사용 순서나 배치 순서 등이 제한되어서는 안 된다. 필요에 따라서는, 각 서수들은 서로 교체되어 사용될 수도 있다.
본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시의 실시 예에서 "모듈", "유닛", "부(part)" 등과 같은 용어는 적어도 하나의 기능이나 동작을 수행하는 구성요소를 지칭하기 위한 용어이며, 이러한 구성요소는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈", "유닛", "부(part)" 등은 각각이 개별적인 특정한 하드웨어로 구현될 필요가 있는 경우를 제외하고는, 적어도 하나의 모듈이나 칩으로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.
또한, 본 개시의 실시 예에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적인 연결뿐 아니라, 다른 매체를 통한 간접적인 연결의 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 포함한다는 의미는, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
도 1은 본 개시의 일 실시 예에 따른 무인 항공기의 개략적인 동작을 설명하기 위한 도면이다.
도 1을 참조하면, 무인 항공기(100)는 적어도 하나의 관제 서버(200)와 통신을 수행할 수 있다. 무인 항공기(100)는 GPS(Global Positioning System) 등 다양한 센서를 이용하여 무인 항공기(100)의 위치를 식별할 수 있으며, 무인 항공기(100)의 위치 정보를 관제 서버(200)로 전송할 수 있다. 또한, 무인 항공기(100)는 관제 서버(200)로부터 수신된 제어 신호를 기반으로 비행 경로 내지는 비행 시간 등을 설정할 수도 있다.
무인 항공기(100)는 적어도 하나의 경로를 비행하면서 해당 경로에 대한 다양한 이미지를 획득할 수 있다.
무인 항공기(100)가 비행하는 경로는, 해안 구역, 해상 구역, 산악 구역, 위험 구역 등 다양한 구역을 정찰 내지는 탐지하기 위한 경로에 해당할 수 있으나, 이에 한정되지 않는다.
무인 항공기(100)가 비행하는 경로는, 관제 서버(200)를 통해 설정된 경로일 수 있다.
일 예로, 관제 서버(200)는 지도 상에 포함되는 복수의 구역 별 사고 발생 이력에 따라 사고 발생이 잦은 적어도 하나의 구역을 선택하고, 해당 구역을 무인 항공기(100)의 비행 경로로 설정할 수 있다.
다른 예로, 관제 서버(200)는 지도 상에 적어도 하나의 비행 경로를 설정하는 사용자 입력을 수신할 수 있으며, 사용자 입력에 따라 설정된 비행 경로를 무인 항공기(100)로 전송할 수도 있다. 여기서, 사용자 입력은, 관제 서버(200)에 구비된 사용자 입력부를 통해 수신되거나 또는 관제 서버(200)와 통신 가능한 적어도 하나의 단말 장치를 통해 수신될 수 있다.
다른 예로, 관제 서버(200)는 사고 발생 지점을 기준으로 비행 경로를 설정할 수도 있다. 이 경우, 관제 서버(200)는 사고 발생 지점을 중심으로 일정 거리 내의 구역을 순찰하기 위한 새로운 경로를 설정할 수 있다.
또는, 무인 항공기(100)가, 관제 서버(200)로부터 수신된 사고 발생 지점에 대한 정보를 기반으로, 경로를 직접 설정할 수도 있다. 구체적으로, 무인 항공기(100)는 사고 발생 지점으로부터 일정 거리 내의 구역을 탐지하기 위한 경로를 설정할 수 있다.
도 1을 참조하면, 무인 항공기(100)는 경로 탐색 중 카메라를 이용하여 적어도 하나의 이미지(1)를 획득할 수 있다.
이 경우, 무인 항공기(100)는 이미지(1)를 분석하여 적어도 하나의 객체(11, 쓰러진 사람)를 식별할 수 있으며, 이렇듯 이미지(1) 내에서 객체(11)가 식별된 경우, 무인 항공기(100)는 객체(11)가 감지되었음을 알리는 정보와 함께 객체(11)를 포함하는 이미지(1)를 관제 서버(200)로 전송할 수 있다.
이렇듯, 본 개시에 따른 무인 항공기(100)는 객체가 감지된 경우에만 관련 이미지를 관제 서버(200)로 전송함으로써, 적절한 데이터 송수신량을 유지하면서 효율적으로 상황을 공유할 수 있다.
이 경우, 관제 서버(200)는 감지된 객체(11)를 포함하는 이미지(1)를 획득할 수 있다. 그리고, 관제 서버(200)는 감지된 객체(11)에 대한 정보를 기반으로 정찰 상황 내지는 구조 대상에 대한 정보를 출력(디스플레이/음성 출력)하거나 또는 적어도 하나의 관리자 단말로 전달할 수 있다.
이하 도면들을 통해, 본 개시에 따른 무인 항공기(100)의 구성 및 동작을 보다 상세하게 설명한다.
도 2는 본 개시의 일 실시 예에 따른 무인 항공기의 구성을 설명하기 위한 블록도이다.
도 2를 참조하면, 무인 항공기(100)는 카메라(110), 통신부(120), 구동 제어부(130), 프로세서(140) 등을 포함할 수 있다.
카메라(110)는 외부 환경에 대한 다양한 이미지를 획득하기 위한 구성이다.
카메라(110)는, RGB 카메라, TOF(Time of Flight) 카메라, 열상 카메라, 스테레오 카메라 등 다양한 종류의 카메라를 포함할 수 있다.
카메라(110)는 다양한 시야각을 가지는 카메라를 포함할 수 있으며, 복수의 카메라를 포함할 수도 있다.
한편, 도시되지는 않았으나, 무인 항공기(100)는 카메라(110)의 촬영을 보조하기 위한 적어도 하나의 광 출력부를 포함할 수 있다. 광 출력부는 적어도 하나의 LED(Light Emitting Diode) 내지는 그 밖에 레이저 출력 수단을 포함할 수 있으나, 이에 한정되지 않는다.
이 경우, 프로세서(140)는 카메라(110)의 촬영 시 카메라(110)가 촬영하는 지점에 광을 출력하도록 광 출력부를 제어할 수 있으며, 그 결과 야간에도 카메라(110)의 촬영을 이용한 탐지가 가능하다는 효과가 있다.
통신부(120)는 무인 항공기(100)가 다양한 외부 장치와 데이터를 송수신하기 위한 구성으로, 통신을 위한 적어도 하나의 회로를 포함할 수 있다.
구체적으로, 통신부(120)는 관제 서버(200), 구조대 서버, 구조선, 비행체, 구조 차량, 다른 무인 항공기, 기타 다양한 단말과 통신을 수행할 수 있다.
통신부(120)는 TCP/IP(Transmission Control Protocol/Internet Protocol), UDP(User Datagram Protocol), HTTP(Hyper Text Transfer Protocol), HTTPS(Secure Hyper Text Transfer Protocol), FTP(File Transfer Protocol), SFTP(Secure File Transfer Protocol), MQTT(Message Queuing Telemetry Transport) 등의 통신 규약(프로토콜)을 이용하여 하나 이상의 외부 전자 장치와 다양한 정보를 송수신할 수 있다.
이를 위해, 통신부(120)는 무선 통신을 통해 구현된 네트워크를 기반으로 외부 장치와 연결될 수 있다. 이때, 통신부(120)는 외부 장치와 직접적으로 연결될 수도 있지만, 네트워크를 제공하는 하나 이상의 외부 서버(ex. ISP(Internet Service Provider))를 통해서 외부 전자 장치와 연결될 수도 있다.
네트워크는 영역 또는 규모에 따라 개인 통신망(PAN; Personal Area Network), 근거리 통신망(LAN; Local Area Network), 광역 통신망(WAN; Wide Area Network) 등일 수 있으며, 네트워크의 개방성에 따라 인트라넷(Intranet), 엑스트라넷(Extranet), 또는 인터넷(Internet) 등일 수 있다.
무선 통신은 LTE(long-term evolution), LTE-A(LTE Advance), 5G(5th Generation) 이동통신, CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), GSM(Global System for Mobile Communications), DMA(Time Division Multiple Access), WiFi(Wi-Fi), WiFi Direct, Bluetooth, NFC(near field communication), Zigbee 등의 통신 방식 중 적어도 하나를 포함할 수 있다.
여기서, 통신부(120)는 상술한 무선 통신 방식에 따른 네트워크 인터페이스(Network Interface) 또는 네트워크 칩을 포함할 수 있다. 한편, 통신 방식은 상술한 예에 한정되지 아니하고, 기술의 발전에 따라 새롭게 등장하는 통신 방식을 포함할 수 있다.
구동 제어부(130)는 무인 항공기(100)의 비행을 제어하기 위한 구성이다. 구동 제어부(130)는 무인 항공기(100)의 이착륙, 무인 항공기(100)의 3차원 방향의 이동, 무인 항공기(100)의 피치(pitch), 롤(roll), 요(yaw) 방향의 회전 등을 제어할 수 있다.
일 예로, 구동 제어부(130)는 무인 항공기(100)에 구비된 각 프로펠러의 회전을 구동하기 위한 회전 모터 등을 제어하기 위한 적어도 하나의 제어 회로를 포함할 수 있다. 또한, 구동 제어부(130)는 무인 항공기(100)에 구비된 적어도 하나의 엔진(ex. 제트 엔진)을 구동할 수도 있다.
프로세서(140)는 무인 항공기(100)에 포함된 전반적인 구성을 제어하기 위한 구성으로, CPU(Central Processing Unit), AP(Application Processor), GPU(Graphic Processing Unit), VPU(Video Processing Unit), NPU(Neural Processing Unit) 등 다양한 유닛으로 구성될 수 있다.
일 예로, 프로세서(140)는 무인 항공기(100)의 메모리에 저장된 인스트럭션을 실행함으로써 무인 항공기(100)의 각 구성을 제어할 수 있다.
이하 도면들을 통해 본 개시의 다양한 실시 예에 따른 프로세서(140)의 제어에 따른 무인 항공기(100)의 동작을 설명한다.
도 3은 본 개시의 일 실시 예에 따른 무인 항공기의 동작을 설명하기 위한 흐름도이다. 도 3은, 무인 항공기(100)가 기설정된 경로에 따라 탐지 비행 중인 상황을 전제로 한다.
도 3을 참조하면, 무인 항공기(100)는 비행 중 카메라(110)를 통해 적어도 하나의 이미지를 획득할 수 있다(S310).
이때, 프로세서(140)는 일정 주기에 따라 순차적으로 복수의 이미지를 촬영하도록 카메라(110)를 제어할 수 있다. 여기서, 복수의 카메라를 통해 넓은 범위가 동시에 촬영될 수도 있다.
그리고, 무인 항공기(100)는 획득된 이미지에 포함된 적어도 하나의 객체를 감지할 수 있다(S320).
일 실시 예로, 프로세서(140)는 카메라(110)를 통해 획득된 이미지 내에 기설정된 모양 또는 기설정된 컬러의 객체가 존재하는지 여부를 식별할 수 있다.
일 예로, 프로세서(140)는 이미지를 분석하여 이미지 내에 기설정된 모양(ex. 사람 형상, 동물 형상, 선박 형상, 비행체 형상 등)을 가지는 객체가 존재하는지 여부를 식별할 수 있다.
여기서, 프로세서(140)는 기설정된 모양을 가지는 객체를 식별하기 위한 적어도 하나의 모듈 내지는 인공지능 모델을 이용할 수 있다. 구체적으로, 프로세서(140)는 카메라(110)를 통해 촬영된 이미지를 상술한 인공지능 모델에 입력하여, 기설정된 모양을 가지는 객체의 존재 여부를 감지할 수 있다.
본 인공지능 모델은, 기설정된 모양을 가지는 다양한 객체(ex. 사람, 동물, 선박, 비행체 등)가 포함된 이미지를 기반으로, 해당 모양을 식별하도록 훈련된 모델일 수 있다. 여기서, 각 이미지에 포함된 객체의 윤곽이나 모양이 마킹된 상태로 각 이미지가 훈련에 이용될 수도 있으나, 이에 한정되지 않는다.
또한, 프로세서(140)는 뎁스 카메라를 통해 뎁스 이미지를 획득하고, 획득된 뎁스 이미지에 포함된 각 객체의 모양을 식별할 수 있다. 이 경우, 프로세서(140)는 기설정된 모양의 객체가 존재하는지 여부를 판단할 수 있다.
또한, 프로세서(140)는 RGB 카메라를 통해 촬영된 이미지의 픽셀 별 R/G/B 값을 기반으로, 기설정된 컬러의 객체가 존재하는지 여부를 감지할 수 있다.
일 예로, 인간의 흔적이 없는 자연 지형 내에 존재하기 어려운 기설정된 컬러(ex. 빨간색, 흰색 등)에 대한 정보가 무인 항공기(100)의 메모리에 기저장되어 있을 수 있다.
이 경우, 프로세서(140)는 이미지 내 적어도 하나의 픽셀의 R/G/B 값이 기설정된 컬러에 매칭되는지 여부를 식별하고, 이미지 내에 기설정된 컬러에 매칭되는 픽셀이 임계 숫자 이상 존재하는 경우, 적어도 하나의 객체가 존재하는 것으로 판단할 수 있다.
또한, 일 실시 예로, 프로세서(140)는 적어도 하나의 기설정된 객체를 식별하도록 훈련된 인공지능 모델에 이미지를 입력하고, 인공지능 모델의 출력을 기반으로 적어도 하나의 객체를 인식할 수도 있다.
본 인공지능 모델은, 기설정된 객체(ex. 사람, 동물, 선박, 비행체 등)를 포함하는 복수의 이미지를 기반으로 객체를 식별하도록 훈련된 모델일 수 있으며, 일 예로, 본 인공지능 모델은 CNN(Convolutional Neural Network)으로 구성되어 이미지에 포함된 객체의 종류를 출력하는 분류기로 동작할 수 있다.
또한, 일 실시 예로, 프로세서(140)는 열상 카메라를 통해 촬영된 열상 이미지를 기반으로 적어도 하나의 객체를 감지할 수 있다. 열상 카메라는, 일 예로 적외선 기반의 카메라일 수 있으나, 이에 한정되지 않는다. 열상 카메라를 통해, 무인 항공기(100)는 야간에도 다양한 객체를 감지할 수 있다.
구체적인 예로, 프로세서(140)는 열상 이미지 내에서 인간 또는 동물의 체온에 매칭되는 기설정된 온도 범위를 가지는 적어도 하나의 객체를 감지할 수 있다.
상술한 다양한 실시 예들에 따라 객체가 감지되는 경우, 무인 항공기(100)는 객체가 포함된 이미지를 통신부(120)를 통해 관제 서버(200)로 전송할 수 있다(S330).
구체적으로, 프로세서(140)는 감지된 객체가 포함된 RGB 이미지/뎁스 이미지/열상 이미지 등을 관제 서버(200)로 전송할 수 있다.
또한, 프로세서(140)는 감지된 객체가 기설정된 객체(ex. 사람, 선박, 비행체 등)로 인식되는 경우, 무인 항공기(100)가 인식된 객체를 추적하도록 구동 제어부(130)를 제어할 수 있다.
구체적으로, 프로세서(140)는 카메라(110)를 통해 객체를 지속적으로 촬영하면서 이동 방향을 식별하면서, 식별된 이동 방향에 따라 무인 항공기(100)의 비행 경로를 설정할 수 있다.
한편, 카메라(110)가 열상 카메라 및 RGB 카메라를 각각 포함하는 경우, 프로세서(140)는 동일한 구역을 동시에 촬영하여 각각 열상 이미지 및 RGB 이미지를 획득하도록 열상 카메라 및 RGB 카메라를 제어할 수 있다.
구체적으로, 열상 이미지 내에서 기설정된 온도의 객체가 감지된 경우, 프로세서(140)는 감지된 객체를 촬영하도록 RGB 카메라를 제어하여 RGB 이미지를 획득할 수 있다.
이 경우, 프로세서(140)는 RGB 카메라를 통해 획득된 RGB 이미지를 분석하여 객체를 인식할 수 있다. 구체적으로, 프로세서(140)는 객체를 식별하도록 훈련된 인공지능 모델에 RGB 이미지를 입력하여 객체를 식별할 수 있다.
다만, 비록 열상 이미지 내에서는 기설정된 온도의 객체가 감지되었음에도 RGB 이미지를 통해서는 객체가 식별되지 않을 수도 있다(ex. 인공지능 모델이 RGB 이미지 내에서 객체를 식별하지 못함).
이 경우, 프로세서(140)는 객체를 포함하는 열상 이미지 및 RGB 이미지를 관제 서버(200)로 전송할 수 있다.
여기서, 관제 서버(200)는 열상 이미지 및/또는 RGB 이미지를 기반으로 객체에 대한 추적 여부를 결정할 수 있다.
일 예로, 관제 서버(200)는 열상 이미지 및 RGB 이미지를 사용자에게 제공할 수 있으며, 사용자의 입력에 따라 객체에 대한 추적 여부를 결정할 수 있다.
다른 예로, 관제 서버(200)는 관제 서버(200)에 기저장된 객체 인식용 인공지능 모델을 통해 열상 이미지 및/또는 RGB 이미지를 분석하여 객체를 인식할 수도 있다. 여기서, 객체가 기설정된 객체(ex. 사람)로 인식되는 경우, 관제 서버(200)는 객체에 대한 추적이 필요한 것으로 결정할 수 있다.
이렇듯, 객체에 대한 추적이 필요한 것으로 결정되면, 관제 서버(200)는 무인 항공기(100)로 추적을 요청하는 제어 신호를 전송할 수 있다.
이 경우, 관제 서버(200)는 추적의 대상인 객체에 대한 정보(ex. 객체의 종류, 상태 등)를 무인 항공기(100)로 전송할 수도 있다.
그리고, 무인 항공기(100)는 관제 서버(200)로부터 수신된 제어 신호를 기반으로 객체에 대한 추적 비행을 수행할 수 있다.
일 예로, 해당 객체에 대한 추적을 요청하는 제어 신호가 수신되는 경우, 프로세서(140)는 감지된 객체를 추적하는 무인 항공기(100)의 비행을 구동하도록 구동 제어부(130)를 제어할 수 있다.
또한, 추적을 요청하는 제어 신호가 수신되면, 프로세서(140)는 앞서 객체 인식에 실패한 RGB 이미지를 기반으로 상술한 인공지능 모델(: 해당 RGB 이미지를 통해 객체를 인식하지 못했던 인공지능 모델)을 훈련시킬 수 있다. 구체적으로, 프로세서(140)는 RGB 이미지 및 객체의 종류에 대한 정보를 기반으로 인공지능 모델을 훈련시킬 수 있다.
그 결과, 기존에는 해당 RGB 이미지에 대하여 인식할 수 없었던 인공지능 모델의 기능이 향상될 수 있으므로, 향후 무인 항공기(100)가 자체적으로 객체 인식에 성공할 확률이 높아진다.
한편, 프로세서(140)는, 촬영된 각 구역에 대하여, 시간에 따라 하나 이상의 이미지를 무인 항공기(100)의 메모리 내에 저장할 수 있다.
이후, 프로세서(140)는 카메라(110)를 통해 촬영된 적어도 하나의 구역의 이미지를 과거에 촬영된 (기저장된) 해당 구역의 이미지와 비교 분석할 수 있다. 구체적으로, 프로세서(140)는 현재 촬영된 이미지의 각 픽셀을 과거에 촬영된 이미지의 각 픽셀과 비교할 수 있다.
그리고, 비교 분석 결과에 따라, 프로세서(140)는 해당 이미지를 관제 서버(200)로 전송하거나 및/또는 인공지능 모델을 이용한 이미지 분석(객체 인식)을 수행할 수 있다.
일 예로, 프로세서(140)는 현재 촬영된 이미지와 과거에 촬영된 이미지가 서로 다른지 여부를 판단할 수 있다.
구체적인 예로, 현재 촬영된 이미지의 평균 픽셀 값 및 과거 촬영된 이미지의 평균 픽셀 값의 차이가 제1 임계치 이상인 경우, 프로세서(140)는 현재 촬영된 이미지와 과거에 촬영된 이미지가 서로 다른 것으로 결정할 수 있다. 또는, 현재 촬영된 이미지의 픽셀 값들의 분산/편차에 대한 과거 촬영된 이미지의 픽셀 값들의 분산/편차의 차이가 제2 임계치 이상인 경우, 프로세서(140)는 현재 촬영된 이미지와 과거에 촬영된 이미지가 서로 다른 것으로 결정할 수 있다.
그리고, 현재 촬영된 이미지와 과거 촬영된 이미지가 서로 다른 것으로 판단되는 경우, 프로세서(140)는 현재 촬영된 이미지를 통신부(120)를 통해 관제 서버(200)로 전송할 수 있다.
이 경우, 관제 서버(200)의 인공지능 모델 또는 관제 서버(200)를 관리하는 관리자/사용자를 통해 사고 또는 위협이 감지될 수 있다.
다른 예로, 현재 촬영된 이미지와 과거에 촬영된 이미지가 서로 다른 것으로 판단되는 경우, 프로세서(140)는 현재 촬영된 이미지를 객체 인식용 인공지능 모델에 입력하여, 해당 이미지에 포함된 적어도 하나의 객체를 식별할 수 있다.
여기서, 인공지능 모델의 출력에 따라 적어도 하나의 객체가 식별되면, 프로세서(140)는 해당 이미지를 통신부(120)를 통해 관제 서버(200)로 전송할 수 있다.
순차적으로 촬영되는 모든 이미지에 대하여 인공지능 모델 기반 객체 인식을 수행하는 경우, 무인 항공기(100)의 배터리 용량이나 연산 속도에 비해 과도한 연산이 수행되어 탐지 활동에 지장이 생길 수 있다.
따라서, 상술한 실시 예와 같이 과거의 이미지와 차이를 가지는 이미지에 대해서만 인공지능 모델 기반 객체 인식을 수행하는 무인 항공기(100)의 경우, 비교적 장기적인 탐지 활동이 가능하다.
한편, 일 실시 예에 따르면, 무인 항공기(100)는 인식된 객체에 따라 다양한 외부 장치로 상황을 공유할 수 있다.
일 예로, 무인 항공기(200)는 관제 서버(200)로부터 실종된 사람에 대한 이미지를 수신할 수 있다.
이 경우, 무인 항공기(200)는 비행 중 인식되는 사람의 이미지를 실종된 사람의 이미지와 비교하여, 실종된 사람에 대한 수색을 진행할 수 있다.
그리고, 실종된 사람이 발견되는 경우, 무인 항공기(200)는 실종된 사람을 발견했음을 알리는 정보 및 이미지를 관제 서버(200) 및 적어도 하나의 구조대 서버로 전송할 수 있다.
구조대 서버는, 구조선, 구조 비행체, 구조 차량, 구조 대원 등의 단말과 통신을 수행하는 구조 시스템의 서버에 해당할 수 있다.
한편, 일 실시 예에 따르면, 무인 항공기(100)는 인식된 객체의 고립 여부에 따라 다양한 외부 장치로 상황을 공유할 수도 있다.
구체적으로, 비행 중 사람이 인식되면, 무인 항공기(100)는 인식된 사람으로부터 기설정된 거리 내에 다른 사람이 존재하는지 여부를 판단할 수 있다. 이를 위해, 무인 항공기(100)는 인식된 사람으로부터 기설정된 거리 내의 영역을 촬영하도록 카메라(110)를 제어하고, 촬영된 이미지를 분석하여 다른 사람의 존재 여부를 식별할 수 있다.
만약 주변에 다른 사람이 존재하는 경우 인식된 사람은 고립되지 않은 것으로 판단되고, 주변에 다른 사람이 존재하지 않는 경우 인식된 사람은 고립된 것으로 판단될 수 있다.
고립되지 않은 경우, 프로세서(140)는 사람들이 인식되었음을 알리는 정보 및 사람들의 이미지를 관제 서버(200)로만 전송하여 상황을 공유할 수 있다.
반면, 한 명의 사람이 고립된 경우, 프로세서(140)는 고립된 사람이 인식되었음을 알리는 정보, 고립된 사람의 이미지 등을 관제 서버(200) 및 구조대 서버로 전송하여 상황을 공유하고 구조를 요청할 수 있다.
한편, 한 명이 아니라 두 명 이상의 사람이라도 고립될 가능성이 존재하기 때문에, 무인 항공기(100)는 사람의 수 별로 고립의 판단 기준이 되는 거리를 다르게 설정할 수 있다.
구체적으로, 프로세서(140)는 한 명의 사람을 기준으로 기설정된 제1 거리 내에 아무도 존재하지 않는 경우, 해당 사람이 고립된 것으로 판단할 수 있다.
또한, 프로세서(140)는 두 명의 사람(서로 기설정된 제1 거리 내에 존재함) 각각을 기준으로 기설정된 제2 거리(: 기설정된 제1 거리보다 큼) 내에 두 명의 사람 외에 아무도 존재하지 않는 경우, 두 명의 사람이 고립된 것으로 판단할 수 있다.
또한, 프로세서(140)는 세 명의 사람(서로 기설정된 제2 거리 내에 존재함) 각각을 기준으로 기설정된 제3 거리(: 기설정된 제2 거리보다 큼) 내에 세 명의 사람 외에 아무도 존재하지 않는 경우, 세 명의 사람이 고립된 것으로 판단할 수 있다.
한편, 일 실시 예에 따르면, 무인 항공기(100)는 인식된 객체의 상태를 판단할 수도 있다.
구체적으로, 프로세서(140)는 인식된 객체에 대하여 (순차적으로) 복수의 이미지를 획득하도록 카메라(110)를 제어할 수 있다.
그리고, 프로세서(140)는 획득된 복수의 이미지를 기반으로 객체의 상태를 판단할 수 있다.
여기서, 객체의 상태는, 객체의 이동 여부나 객체의 건강 상태에 대한 다양한 정보를 포함할 수 있다. 일 예로, 객체가 사람인 경우, 서 있는 상태, 앉아 있는 상태, 누워있는 상태, 걷고 있는 상태, 뛰고 있는 상태, 쓰러진 상태, 다리를 저는 상태, 큰 소리(ex. 구조 요청)를 외치는 상태 등 다양한 상태가 가능하다.
예를 들어, 사람이 인식되었으나, 순차적으로 촬영된 복수의 이미지 상에서 사람의 움직임이 식별되지 않는 경우, 프로세서(140)는 쓰러진 상태에 해당하는 것으로 판단할 수 있다.
또한, 프로세서(140)는 객체의 상태를 판단하도록 훈련된 적어도 하나의 인공지능 모델을 이용할 수도 있다.
구체적으로, 프로세서(140)는 상술한 복수의 이미지를, 객체의 상태를 판단하도록 훈련된 적어도 하나의 인공지능 모델에 입력함으로써 객체의 상태를 식별할 수도 있다. 본 인공지능 모델은, 특정 상태(ex. 서 있는 상태, 앉아 있는 상태, 누워있는 상태, 걷고 있는 상태, 뛰고 있는 상태, 쓰러진 상태 등)에 해당하는 객체(ex. 사람)가 순차적/연속적으로 촬영된 이미지들을 기반으로 훈련된 모델일 수 있다.
상술한 실시 예와 같이 객체의 상태가 판단되면, 판단된 상태에 따라 무인 항공기(100)가 상황을 공유하는 대상이 달라질 수 있다.
구체적으로, 프로세서(140)는, 객체의 상태가 기설정된 제1 상태인 경우, 객체의 상태에 대한 정보를 통신부(120)를 통해 관제 서버(200)로 전송하고, 객체의 상태가 기설정된 제2 상태인 경우, 객체의 상태에 대한 정보를 통신부(120)를 통해 관제 서버(200) 및 적어도 하나의 구조대 서버로 전송할 수 있다.
일 예로, 객체가 사람인 경우, 상술한 제1 상태는 건강에 이상이 없는 상태이고, 상술한 제2 상태는 건강에 이상이 있는 상태인 경우를 가정한다.
만약, 상술한 이미지 분석을 통해 객체인 사람이 쓰러져 있는 것으로 식별된 경우, 건강에 이상이 있는 상태에 해당하므로, 프로세서(140)는 관제 서버(200) 및 구조대 서버로 객체의 상태에 대한 정보를 전송할 수 있다. 이 경우, 프로세서(140)는 객체가 촬영된 이미지를 함께 전송할 수 있다.
반면, 별다른 문제없이 단순히 걷거나, 앉아있는 사람이 식별되는 경우, 프로세서(140)는 객체의 상태에 대한 정보를 관제 서버(200)로만 전송할 수도 있다. 이 경우, 프로세서(140)는 객체가 촬영된 이미지를 함께 전송할 수 있다.
이렇듯, 본 개시에 따른 무인 항공기(100)는 감지된 객체의 상태에 따라 상황을 공유하는 대상을 달리함으로써, 위급상황에 맞는 대처를 자동으로 수행할 수 있다는 효과가 있다.
관련하여, 도 4는 본 개시의 일 실시 예에 따른 무인 항공기가 객체의 상태에 따라 다양한 외부 장치와 상황을 공유하는 동작을 설명하기 위한 알고리즘이다.
도 4를 참조하면, 무인 항공기(100)는 비행 중 실시간으로 복수의 이미지를 촬영하며, 적어도 하나의 이미지에 대한 분석 및 객체 감지/인식을 수행할 수 있다(S410).
그리고, 적어도 하나의 객체가 감지 또는 인식되면(S420 - Y), 무인 항공기(100)는 객체를 포함하는 이미지를 관제 서버(200)로 전송할 수 있다(S430).
또한, 무인 항공기(100)는 객체에 대하여 순차적으로 복수의 이미지를 촬영하여, 객체의 상태를 분석할 수 있다(S440).
상태 분석 결과, 객체의 상태에 이상이 없는 경우(S450 - N), 무인 항공기(100)는 객체의 상태에 이상이 없음을 알리는 정보를 관제 서버(200)로 전송할 수 있다(S460).
반면, 다리를 절거나 쓰러져 있는 등 객체의 상태에 이상이 있는 경우(S450 - Y), 무인 항공기(100)는 관제 서버(200) 및 구조대 서버로 객체의 상태에 이상이 있음을 알리는 정보를 전송할 수 있다(S470). 또한, 무인 항공기(100)는 구조대 서버로 구조 요청을 전송할 수도 있다.
한편, 도 5는 본 개시의 다양한 실시 예에 따른 무인 항공기의 구성을 설명하기 위한 블록도이다.
도 5를 참조하면, 무인 항공기(100)는 카메라(110), 통신부(120), 구동 제어부(130), 프로세서(140) 외에도 센서부(150), 메모리(160) 등을 더 포함할 수 있다.
센서부(150)는 주변 환경에 대한 정보를 획득하기 위한 다양한 종류의 센서를 포함할 수 있다. 구체적으로, 센서부(150)는, GPS 센서, 지자기 센서, 가속도 센서, 풍향/풍속 센서, 라이다 센서 등을 포함할 수 있다.
프로세서(140)는 상술한 다양한 센서를 통해 획득된 센싱 데이터를 기반으로 무인 항공기(100)의 비행을 구동하도록 구동 제어부(130)를 제어할 수 있다.
구체적으로, 프로세서(140)는 센서부(150)를 통해 무인 항공기(100)의 위치, 속도, 가속도, 방향 등을 실시간으로 식별하여 조정할 수 있다.
프로세서(140)는 센싱 데이터를 기반으로 적어도 하나의 객체가 감지됨에 따라 카메라(110)를 통해 이미지를 획득할 수도 있다. 일 예로, 라이다 센서를 통해 획득된 센싱 데이터를 통해 적어도 하나의 객체가 감지되는 경우, 프로세서(140)는 감지된 객체를 촬영하도록 카메라(110)를 제어할 수 있다. 이 경우, 프로세서(140)는 카메라(110)를 통해 획득된 이미지를 분석하여 객체를 인식할 수 있다.
메모리(160)는 무인 항공기(100) 내 구성요소들의 전반적인 동작을 제어하기 위한 운영체제(OS: Operating System), 적어도 하나의 인스트럭션 및 데이터를 저장하기 위한 구성이다.
메모리(160)는 ROM, 플래시 메모리 등의 비휘발성 메모리를 포함할 수 있으며, DRAM 등으로 구성된 휘발성 메모리를 포함할 수 있다. 또한, 메모리(160)는 하드 디스크, SSD(Solid state drive) 등을 포함할 수도 있다.
메모리(160)는 상술한 다양한 실시 예에 따른 인공지능 모델을 저장할 수 있다. 메모리(160)는 CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network), GAN(Generative Adversarial Network) 및 심층 Q-네트워크(Deep Q-Networks) 등 다양한 인공지능 모델을 포함할 수 있으나, 이에 한정되지 않는다.
메모리(160)는 카메라(110)를 통해 촬영된 이미지들을 저장할 수 있다.
관련하여, 프로세서(140)는 카메라(110)를 통해 순차적으로 촬영된 이미지들을 메모리(160)에 저장하되, 메모리(160)의 용량에 따라, 오래된 이미지들을 우선적으로 삭제할 수 있다.
또는, 프로세서(140)는 객체를 포함하는 이미지를 메모리(160)에 저장하고, 객체를 포함하지 않는 이미지는 메모리(160)에 저장하지 않을 수 있다. 이 경우, 프로세서(140)는 저장된 이미지를 통신부(120)를 통해 관제 서버(200)로 전송할 수 있으며, 전송 이후에는 해당 이미지를 삭제할 수도 있다.
또한, 메모리(160)는 인식된 객체의 위치 정보를 저장할 수 있으며, 프로세서(160)는 저장된 위치 정보를 통신부(120)를 통해 관제 서버(200)로 전송할 수 있다.
한편, 이상에서 설명된 다양한 실시 예들은 서로 저촉되지 않는 한 복수의 실시 예가 결합되어 구현될 수 있다.
한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합된 것을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 본 개시에서 설명되는 실시 예들은 ASICs(Application Specific Integrated Circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다.
일부의 경우에 본 명세서에서 설명되는 실시 예들이 프로세서 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상술한 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 각 장치에서의 처리동작을 수행하기 위한 컴퓨터 명령어(computer instructions) 또는 컴퓨터 프로그램은 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium)에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어 또는 컴퓨터 프로그램은 무인 항공기 등 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 무인 항공기의 동작을 상술한 특정 기기가 수행하도록 한다.
비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.
100: 무인 항공기 110: 카메라
120: 통신부 130: 구동 제어부
140: 프로세서
120: 통신부 130: 구동 제어부
140: 프로세서
Claims (9)
- 무인 항공기에 있어서,
카메라;
프로세서;
통신부; 및
상기 무인 항공기의 비행을 제어하는 구동 제어부;를 포함하고,
상기 프로세서는,
상기 무인 항공기의 비행 중 상기 카메라를 통해 적어도 하나의 이미지를 획득하고,
상기 획득된 이미지에 포함된 적어도 하나의 객체를 감지하고,
상기 객체가 감지된 경우, 상기 통신부를 통해 상기 객체를 포함하는 이미지를 관제 서버로 전송하고,
상기 프로세서는,
적어도 하나의 기설정된 객체를 식별하도록 훈련된 인공지능 모델에 상기 획득된 이미지를 입력하고,
상기 인공지능 모델의 출력을 기반으로 적어도 하나의 객체를 인식하고,
상기 프로세서는,
상기 카메라를 통해 상기 인식된 객체에 대한 복수의 이미지를 획득하고,
상기 획득된 복수의 이미지를 기반으로 상기 객체의 상태를 판단하고,
상기 객체의 상태가 기설정된 제1 상태인 경우, 상기 객체의 상태에 대한 정보를 상기 통신부를 통해 상기 관제 서버로 전송하고,
상기 객체의 상태가 기설정된 제2 상태인 경우, 상기 객체의 상태에 대한 정보를 상기 통신부를 통해 상기 관제 서버 및 구조대 서버로 전송하는, 무인 항공기. - 제1항에 있어서,
상기 프로세서는,
상기 카메라를 통해 획득된 이미지 내에 기설정된 모양 또는 기설정된 컬러의 객체가 존재하는지 여부를 식별하고,
상기 기설정된 모양 또는 상기 기설정된 컬러의 객체가 존재하는 경우, 상기 객체를 포함하는 이미지를 상기 관제 서버로 전송하는, 무인 항공기. - 삭제
- 삭제
- 제1항에 있어서,
상기 카메라는,
RGB 카메라 및 열상 카메라를 포함하고,
상기 프로세서는,
상기 열상 카메라를 통해 획득된 열상 이미지를 기반으로 적어도 하나의 객체가 감지되는 경우, 상기 감지된 객체를 촬영하도록 상기 RGB 카메라를 제어하고,
상기 RGB 카메라를 통해 획득된 RGB 이미지를 객체를 식별하도록 훈련된 인공지능 모델에 입력하여 상기 객체를 식별하는, 무인 항공기. - 제5항에 있어서,
상기 프로세서는,
상기 열상 이미지를 통해 객체의 존재가 감지되었으나 상기 RGB 이미지를 통해 상기 객체가 식별되지 않는 경우, 상기 열상 이미지 및 상기 RGB 이미지를 상기 관제 서버로 전송하고,
상기 관제 서버로부터 상기 감지된 객체를 추적하기 위한 제어 신호가 수신되면, 상기 감지된 객체를 추적하기 위한 상기 무인 항공기의 비행을 상기 구동 제어부를 통해 제어하는, 무인 항공기. - 제6항에 있어서,
상기 프로세서는,
상기 감지된 객체를 추적하기 위한 제어 신호가 수신되면, 상기 RGB 이미지를 기반으로 상기 인공지능 모델을 훈련시키는, 무인 항공기. - 제1항에 있어서,
상기 프로세서는,
상기 카메라를 통해 촬영된 일 구역의 이미지를 과거에 촬영된 상기 구역의 이미지와 비교 분석하고,
상기 촬영된 이미지가 상기 과거에 촬영된 이미지와 다른 것으로 식별되는 경우, 상기 촬영된 이미지를 객체를 인식하도록 훈련된 인공지능 모델에 입력하고,
상기 인공지능 모델의 출력에 따라 적어도 하나의 객체가 식별되면, 상기 촬영된 이미지를 상기 관제 서버로 전송하는, 무인 항공기. - 무인 항공기의 제어 방법에 있어서,
무인 항공기의 비행 중 카메라를 통해 적어도 하나의 이미지를 획득하는 단계;
상기 획득된 이미지에 포함된 적어도 하나의 객체를 감지하는 단계; 및
상기 객체가 감지된 경우, 상기 객체가 포함된 이미지를 관제 서버로 전송하는 단계;를 포함하고,
상기 적어도 하나의 객체를 감지하는 단계는,
적어도 하나의 기설정된 객체를 식별하도록 훈련된 인공지능 모델에 상기 획득된 이미지를 입력하고,
상기 인공지능 모델의 출력을 기반으로 적어도 하나의 객체를 인식하고,
상기 객체가 포함된 이미지를 관제 서버로 전송하는 단계는,
상기 카메라를 통해 상기 인식된 객체에 대한 복수의 이미지를 획득하고,
상기 획득된 복수의 이미지를 기반으로 상기 객체의 상태를 판단하고,
상기 객체의 상태가 기설정된 제1 상태인 경우, 상기 객체의 상태에 대한 정보를 상기 관제 서버로 전송하고,
상기 객체의 상태가 기설정된 제2 상태인 경우, 상기 객체의 상태에 대한 정보를 상기 관제 서버 및 구조대 서버로 전송하는, 무인 항공기의 제어 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210047980A KR102300348B1 (ko) | 2021-04-13 | 2021-04-13 | 실시간 이미지 분석을 기반으로 현장 상황을 공유하는 무인 항공기, 및 제어 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210047980A KR102300348B1 (ko) | 2021-04-13 | 2021-04-13 | 실시간 이미지 분석을 기반으로 현장 상황을 공유하는 무인 항공기, 및 제어 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102300348B1 true KR102300348B1 (ko) | 2021-09-09 |
Family
ID=77777595
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210047980A KR102300348B1 (ko) | 2021-04-13 | 2021-04-13 | 실시간 이미지 분석을 기반으로 현장 상황을 공유하는 무인 항공기, 및 제어 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102300348B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114063641A (zh) * | 2021-10-19 | 2022-02-18 | 深圳市优必选科技股份有限公司 | 机器人巡逻方法、巡逻机器人及计算机可读存储介质 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110130913A1 (en) * | 2003-06-20 | 2011-06-02 | Geneva Aerospace | Unmanned aerial vehicle control systems |
KR20150133536A (ko) * | 2014-05-20 | 2015-11-30 | 주식회사 엘지유플러스 | 드론을 이용한 보안 서비스 제공 방법 및 시스템 |
CN105681450A (zh) * | 2016-02-23 | 2016-06-15 | 袁梦杰 | 无人机共享方法、服务器、客户端及系统 |
US20160251081A1 (en) * | 2014-12-08 | 2016-09-01 | Government Of The United States As Represetned By The Secretary Of The Air Force | Apparatus and method employing autonomous vehicles to reduce risk |
WO2016161426A1 (en) * | 2015-04-03 | 2016-10-06 | 3D Robotics, Inc. | Systems and methods for controlling pilotless aircraft |
KR20160119956A (ko) * | 2015-04-07 | 2016-10-17 | (주)코아텍 | 드론을 이용한 추적 시스템 |
US9471059B1 (en) * | 2015-02-17 | 2016-10-18 | Amazon Technologies, Inc. | Unmanned aerial vehicle assistant |
KR101700395B1 (ko) * | 2015-10-16 | 2017-02-13 | (주)삼성정보통신 | 경호용 드론 및 이를 이용한 이동식 경호 시스템 |
US20170076438A1 (en) * | 2015-08-31 | 2017-03-16 | Cape Analytics, Inc. | Systems and methods for analyzing remote sensing imagery |
US20170088261A1 (en) * | 2015-09-29 | 2017-03-30 | Tyco Fire & Security Gmbh | Search and Rescue UAV System and Method |
WO2017077543A1 (en) * | 2015-11-08 | 2017-05-11 | Agrowing Ltd | A method for aerial imagery acquisition and analysis |
KR101739980B1 (ko) * | 2015-12-02 | 2017-05-26 | (주)그린아이티코리아 | 무인 비행체를 이용한 에스코트 서비스 시스템 및 방법 |
KR20170095505A (ko) * | 2016-02-15 | 2017-08-23 | 성균관대학교산학협력단 | 드론으로 수집한 영상을 이용한 구조 정보 생성 방법 |
US20170249846A1 (en) * | 2016-02-26 | 2017-08-31 | Ford Global Technologies, Llc | Autonomous vehicle passenger locator |
WO2017172932A1 (en) * | 2016-03-30 | 2017-10-05 | Culver Matthew | Systems and methods for unmanned aerial vehicles |
KR20200056068A (ko) * | 2018-11-14 | 2020-05-22 | 이병섭 | Mvs 기반의 무인항공기를 갖춘 객체 추적 시스템 |
KR102186823B1 (ko) | 2019-05-31 | 2020-12-07 | 황태현 | 드론 관제 시스템 |
-
2021
- 2021-04-13 KR KR1020210047980A patent/KR102300348B1/ko active IP Right Grant
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110130913A1 (en) * | 2003-06-20 | 2011-06-02 | Geneva Aerospace | Unmanned aerial vehicle control systems |
KR20150133536A (ko) * | 2014-05-20 | 2015-11-30 | 주식회사 엘지유플러스 | 드론을 이용한 보안 서비스 제공 방법 및 시스템 |
US20160251081A1 (en) * | 2014-12-08 | 2016-09-01 | Government Of The United States As Represetned By The Secretary Of The Air Force | Apparatus and method employing autonomous vehicles to reduce risk |
US9471059B1 (en) * | 2015-02-17 | 2016-10-18 | Amazon Technologies, Inc. | Unmanned aerial vehicle assistant |
WO2016161426A1 (en) * | 2015-04-03 | 2016-10-06 | 3D Robotics, Inc. | Systems and methods for controlling pilotless aircraft |
KR20160119956A (ko) * | 2015-04-07 | 2016-10-17 | (주)코아텍 | 드론을 이용한 추적 시스템 |
US20170076438A1 (en) * | 2015-08-31 | 2017-03-16 | Cape Analytics, Inc. | Systems and methods for analyzing remote sensing imagery |
US20170088261A1 (en) * | 2015-09-29 | 2017-03-30 | Tyco Fire & Security Gmbh | Search and Rescue UAV System and Method |
KR101700395B1 (ko) * | 2015-10-16 | 2017-02-13 | (주)삼성정보통신 | 경호용 드론 및 이를 이용한 이동식 경호 시스템 |
WO2017077543A1 (en) * | 2015-11-08 | 2017-05-11 | Agrowing Ltd | A method for aerial imagery acquisition and analysis |
KR101739980B1 (ko) * | 2015-12-02 | 2017-05-26 | (주)그린아이티코리아 | 무인 비행체를 이용한 에스코트 서비스 시스템 및 방법 |
KR20170095505A (ko) * | 2016-02-15 | 2017-08-23 | 성균관대학교산학협력단 | 드론으로 수집한 영상을 이용한 구조 정보 생성 방법 |
CN105681450A (zh) * | 2016-02-23 | 2016-06-15 | 袁梦杰 | 无人机共享方法、服务器、客户端及系统 |
US20170249846A1 (en) * | 2016-02-26 | 2017-08-31 | Ford Global Technologies, Llc | Autonomous vehicle passenger locator |
WO2017172932A1 (en) * | 2016-03-30 | 2017-10-05 | Culver Matthew | Systems and methods for unmanned aerial vehicles |
KR20200056068A (ko) * | 2018-11-14 | 2020-05-22 | 이병섭 | Mvs 기반의 무인항공기를 갖춘 객체 추적 시스템 |
KR102186823B1 (ko) | 2019-05-31 | 2020-12-07 | 황태현 | 드론 관제 시스템 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114063641A (zh) * | 2021-10-19 | 2022-02-18 | 深圳市优必选科技股份有限公司 | 机器人巡逻方法、巡逻机器人及计算机可读存储介质 |
CN114063641B (zh) * | 2021-10-19 | 2024-04-16 | 深圳市优必选科技股份有限公司 | 机器人巡逻方法、巡逻机器人及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10322804B2 (en) | Device that controls flight altitude of unmanned aerial vehicle | |
WO2018103689A1 (zh) | 无人机相对方位控制方法及装置 | |
WO2017170148A1 (ja) | 飛行装置、電子機器およびプログラム | |
US10021254B2 (en) | Autonomous vehicle cameras used for near real-time imaging | |
KR102625488B1 (ko) | 제어 장치 및 제어 방법, 프로그램, 그리고 이동체 | |
US11531340B2 (en) | Flying body, living body detection system, living body detection method, program and recording medium | |
WO2018058307A1 (en) | Systems and methods for initialization of target object in a tracking system | |
US9922049B2 (en) | Information processing device, method of processing information, and program for processing information | |
US10187611B2 (en) | Video surveillance system with aerial camera device | |
US20220137647A1 (en) | System and method for operating a movable object based on human body indications | |
CN104700576A (zh) | 一种水上快速救援系统及其方法 | |
KR102300349B1 (ko) | 탐지 상황에 따라 자동으로 이동 경로를 설정하는 무인 항공기, 및 운용 방법 | |
JP6704979B1 (ja) | 無人飛行装置、無人飛行システム及び無人飛行装置制御システム | |
JP6625786B2 (ja) | 異常検知システム、異常検知方法及びプログラム | |
US20220342428A1 (en) | Unmanned aerial vehicles | |
KR102300348B1 (ko) | 실시간 이미지 분석을 기반으로 현장 상황을 공유하는 무인 항공기, 및 제어 방법 | |
US20180181129A1 (en) | Method and apparatus for controlling flight of unmanned aerial vehicle and unmanned aerial vehicle | |
CN111913493A (zh) | 无人机降落装置及方法 | |
KR101779255B1 (ko) | 자동항법 및 정보전달 가능한 무인비행시스템 | |
KR102351057B1 (ko) | 재난 상황 복잡도를 기초로 무인항공기를 제어하기 위한 장치 및 이를 위한 방법 | |
US11238281B1 (en) | Light source detection in field of view | |
JP2019018664A (ja) | 撮像制御システム | |
KR102425372B1 (ko) | 지상관제를 위한 다중 uav 제어 시스템 및 제어 방법 | |
Quan et al. | Identification of drone thermal signature by convolutional neural network | |
US20220397913A1 (en) | Method for Controlling a Flight Movement of an Aerial Vehicle for Landing or for Dropping a Cargo, and Aerial Vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |