KR20220087118A - 무인기를 사용한 토지 분석 및 관리를 위한 방법, 장치 및 시스템 - Google Patents

무인기를 사용한 토지 분석 및 관리를 위한 방법, 장치 및 시스템 Download PDF

Info

Publication number
KR20220087118A
KR20220087118A KR1020200177504A KR20200177504A KR20220087118A KR 20220087118 A KR20220087118 A KR 20220087118A KR 1020200177504 A KR1020200177504 A KR 1020200177504A KR 20200177504 A KR20200177504 A KR 20200177504A KR 20220087118 A KR20220087118 A KR 20220087118A
Authority
KR
South Korea
Prior art keywords
aerial vehicle
unmanned aerial
images
land
station
Prior art date
Application number
KR1020200177504A
Other languages
English (en)
Inventor
이정현
장평옥
Original Assignee
이정현
장평옥
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이정현, 장평옥 filed Critical 이정현
Priority to KR1020200177504A priority Critical patent/KR20220087118A/ko
Publication of KR20220087118A publication Critical patent/KR20220087118A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/16Real estate
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/104Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/003Flight plan management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Tourism & Hospitality (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Human Resources & Organizations (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)

Abstract

토지를 촬영하도록 구성된 적어도 하나의 무인기와 통신하는 장치에 의해서 수행되는 방법은, 토지에서 적어도 하나의 무인기의 루트(route)를 정의하는 단계, 정의된 루트에 따라 적어도 하나의 무인기가 이동하도록, 적어도 하나의 무인기와 통신하는 단계, 및 적어도 하나의 무인기에 의해서 촬영된 복수의 이미지들을 수집하는 단계를 포함할 수 있다.

Description

무인기를 사용한 토지 분석 및 관리를 위한 방법, 장치 및 시스템{METHOD, DEVICE AND SYSTEM FOR ANALYZING AND MANAGING LAND BASED ON UNMANNDED AERIAL VEHICLE}
본 발명의 기술적 사상은 토지 분석 및 관리에 관한 것으로서, 자세하게는 무인기를 사용한 토지 분석 및 관리를 위한 방법, 장치 및 시스템에 관한 것이다.
토지 분석은 다양한 분야에 활용될 수 있을 것으로 예상된다. 예를 들면, 토지 분석을 통해서 검출된 토질은, 당해 년도의 작황 예상, 토질 개선에 필요한 조치 판단, 토지의 가치 평가, 토질 변화 양상의 분석 등에 널리 사용될 수 있을 것으로 예상되며, 나아가 토지의 거래, 곡물 수급 동향의 분석 등과 같은 경제 분야에 유용하게 활용될 수도 있을 것으로 예상된다. 토지 분석을 위하여 사람이 토지를 방문하여 토양을 채취하는 방식은, 많은 비용 및 시간을 요구할 수 있을 뿐만 아니라, 채취된 토양이 토지를 대표하기에 부족할 수 있고, 사람의 접근이 어려운 영역에서 토양의 채취가 불가능할 수 있는 점에서, 현실적으로 많은 한계들이 존재할 수 있다.
본 발명의 기술적 사상은, 무인기를 사용함으로써 정확하고 효율적으로 토지를 분석 및 관리하기 위한 방법, 장치 및 시스템을 제공한다.
상기와 같은 목적을 달성하기 위하여, 본 발명의 기술적 사상의 일측면에 따라 토지를 촬영하도록 구성된 적어도 하나의 무인기와 통신하는 장치에 의해서 수행되는 방법은, 토지에서 적어도 하나의 무인기의 루트(route)를 정의하는 단계, 정의된 루트에 따라 적어도 하나의 무인기가 이동하도록, 적어도 하나의 무인기와 통신하는 단계, 및 적어도 하나의 무인기에 의해서 촬영된 복수의 이미지들을 수집하는 단계를 포함할 수 있다.
본 발명의 예시적 실시예에 따라, 루트를 정의하는 단계는, 적어도 하나의 무인기의 항속시간(endurance) 및 항속거리(range) 중 적어도 하나를 식별하는 단계, 토지에서 미촬영 영역을 식별하는 단계, 및 항속시간, 항속거리 및 미촬영 영역에 기초하여, 적어도 하나의 무인기 각각의 루트를 정의하는 단계를 포함할 수 있다.
본 발명의 예시적 실시예에 따라, 적어도 하나의 무인기와 통신하는 단계는, 정의된 루트에 기초하여, 적어도 하나의 무인기에 조종 신호를 송신하는 단계, 및 정의된 루트에 대한 정보를 적어도 하나의 무인기에 송신하는 단계 중 적어도 하나를 포함할 수 있다.
본 발명의 예시적 실시예에 따라, 적어도 하나의 무인기와 통신하는 단계는, 적어도 하나의 무인기에 의해서 촬영된 제1 이미지를 수신하는 단계, 제1 이미지에서 적어도 하나의 피처를 검출하는 단계, 검출된 적어도 하나의 피처에 기초하여, 적어도 하나의 무인기에 설정 신호를 송신하는 단계, 및 설정 신호에 기초하여 적어도 하나의 무인기에 의해서 촬영된 제2 이미지를 수신하는 단계를 포함할 수 있다.
본 발명의 예시적 실시예에 따라, 복수의 이미지들을 수집하는 단계는, 적어도 하나의 무인기의 비행 중 복수의 이미지들을 순차적으로 수신하는 단계, 및 비행을 종료한 적어도 하나의 무인기로부터 복수의 이미지들을 수신하는 단계 중 적어도 하나를 포함할 수 있다.
본 발명의 예시적 실시예에 따라, 토지를 촬영하도록 구성된 적어도 하나의 무인기와 통신하는 장치에 의해서 수행되는 방법은, 주변 환경 정보를 획득하고, 주변 환경 정보를 복수의 이미지들에 태깅하는 단계를 더 포함할 수 있다.
본 발명의 기술적 사상의 일측면에 따라, 토지의 분석 및 관리를 위하여 컴퓨팅 시스템에 의해서 수행되는 방법은, 적어도 하나의 무인기에 의해서 토지를 촬영함으로써 생성된 복수의 이미지들을 포함하는 입력 데이터를 획득하는 단계, 입력 데이터로부터 추출된 정보에 기초하여, 복수의 이미지들을 전처리하는 단계, 및 복수의 샘플 이미지들에 의해서 학습된 기계 학습 모델에 기초하여, 전처리된 복수의 이미지들로부터 토지의 속성들을 검출하는 단계를 포함할 수 있다.
본 발명의 예시적 실시예에 따라, 복수의 이미지들을 전처리하는 단계는, 입력 데이터로부터, 토지의 촬영시 상태를 나타내는 주변 환경 정보를 추출하는 단계, 및 주변 환경 정보에 기초하여, 복수의 이미지들을 보정하는 단계를 포함할 수 있다.
본 발명의 예시적 실시예에 따라, 적어도 하나의 무인기는, 렌즈의 전방에 배치된 기준물을 토지와 함께 촬영할 수 있고, 복수의 이미지들을 전처리하는 단계는, 복수의 이미지들 각각에서 기준물에 대응하는 픽셀들을 검출하는 단계, 및 픽셀들의 값들에 기초하여, 복수의 이미지들을 보정하는 단계를 포함할 수 있다.
본 발명의 예시적 실시예에 따라, 적어도 하나의 기계 학습 모델은, 시계열 처리 및 인공 신경망이 조합된 구조를 가질 수 있다.
본 발명의 기술적 사상에 따른 방법, 장치 및 시스템에 의하면, 토지의 채취가 생략될 수 있고, 이에 따라 토지 분석 및 관리를 위한 시간 및 비용이 절감될 수 있고, 편의성이 향상될 수 있다.
또한, 본 발명의 기술적 사상에 다른 방법, 장치 및 시스템에 의하면, 위성 사진과 같이 원거리에서 촬영된 이미지와 상이하게 근거리에서 토지를 촬영한 이미지에 기초하여 토지가 정밀하게 촬영될 수 있고, 이에 따라 토지가 정확하게 분석되고 관리될 수 있다.
또한, 본 발명의 기술적 사상에 따른 방법, 장치 및 시스템에 의하면, 토지의 전체가 분석될 수 있고, 이에 따라 토지가 정확하게 분석되고 관리될 수 있다.
본 발명의 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 아니하며, 언급되지 아니한 다른 효과들은 이하의 본 발명의 실시예들에 대한 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다. 즉, 본 발명을 실시함에 따른 의도하지 아니한 효과들 역시 본 발명의 실시예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.
도 1은 본 발명의 예시적 실시예에 따른 토지 분석 시스템을 나타내는 도면이다.
도 2는 본 발명의 예시적 실시예에 따른 무인기 및 스테이션을 나타내는 블록도이다.
도 3은 본 발명의 예시적 실시예에 따른 토지 분석을 위한 방법을 나타내는 순서도이다.
도 4는 본 발명의 예시적 실시예에 따른 토지 분석을 위한 방법을 나타내는 순서도이다.
도 5a 및 도 5b는 본 발명의 예시적 실시예들에 따른 토지 분석을 위한 방법의 예시들을 나타내는 메시지도들이다.
도 6은 본 발명의 예시적 실시예에 따른 토지 분석을 위한 방법을 나타내는 메시지도이다.
도 7은 본 발명의 예시적 실시예에 따른 토지 분석을 위한 방법을 나타내는 순서도이다.
도 8a 및 도 8b는 본 발명의 예시적 실시예들에 따른 토지 분석을 위한 방법의 예시들을 나타내는 순서도들이다.
이하, 첨부한 도면을 참조하여 본 발명의 실시예에 대해 상세히 설명한다. 본 발명의 실시예는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공되는 것이다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용한다. 첨부된 도면에 있어서, 구조물들의 치수는 본 발명의 명확성을 기하기 위하여 실제보다 확대하거나 축소하여 도시한 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수개의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하 도면 및 설명에서, 하나의 블록으로 표시 또는 설명되는 구성요소는 하드웨어 블록 또는 소프트웨어 블록일 수 있다. 예를 들면, 구성요소들 각각은 서로 신호를 주고 받는 독립적인 하드웨어 블록일 수도 있고, 또는 적어도 하나의 프로세서에서 실행되는 소프트웨어 블록일 수도 있다.
도 1은 본 발명의 예시적 실시예에 따른 토지 분석 시스템을 나타내는 도면이다. 토지 분석 시스템은 토지(10)의 속성들, 즉 토질의 다양한 항목들을 검출할 수 있고, 토지 분석 시스템에 의해서 검출된 토질은 당해 년도의 작황 예상, 토질 개선에 필요한 조치 판단, 토지의 가치 평가, 토질 변화 양상의 분석 등에 널리 유용하게 사용될 수 있다.
도 1을 참조하면, 제1 내지 제3 무인기(111 내지 113)가 사용될 수 있다. 무인기(unmanned aerial vehicle; UAV)는 무인기는 드론(drone)으로 지칭될 수도 있고, 사람이 탑승하지 아니하는 임의의 비행체(aircraft)를 지칭할 수 있다. 제1 내지 제3 무인기(111 내지 113)는, 예컨대 토지(10)로부터 수 m 내지 수십 m 상에서 비행하면서 토지(10)를 촬영할 수 있고, 스테이션(120)과 통신할 수 있다. 일부 실시예들에서, 도 1에 도시된 바와 상이하게, 1대의 무인기가 사용될 수도 있고, 4개 이상의 무인기들이 사용될 수도 있다. 제1 내지 제3 무인기(111 내지 113)의 예시가 도 2를 참조하여 후술될 것이다.
스테이션(120)은 토지(10)의 주변에 위치할 수 있고, 제1 내지 제3 무인기(111 내지 113)와 통신할 수 있다. 스테이션(120)은 제1 내지 제3 무인기(111 내지 113)로 하여금 토지(10)가 적절하게 촬영될 수 있도록, 제1 내지 제3 무인기(111 내지 113)와 통신할 수 있다. 예를 들면, 스테이션(120)은 제1 내지 제3 무인기(111 내지 113)의 제1 내지 제3 루트(R1 내지 R3)를 정의할 수 있고, 제1 내지 제3 무인기(111 내지 113)가 제1 내지 제3 루트(R1 내지 R3)를 따라 각각 이동하도록, 제1 내지 제3 무인기(111 내지 113)와 통신할 수 있다. 제1 내지 제3 무인기(111 내지 113)가 제1 내지 제3 루트(R1 내지 R3)를 따라 이동하면서 토지(10)를 촬영할 수 있고, 스테이션(120)은 제1 내지 제3 무인기(111 내지 113)에 의해서 촬영된 복수의 이미지들(IMGs)을 수집할 수 있다. 스테이션(120)의 예시가 도 2를 참조하여 후술될 것이다. 본 명세서에서, 스테이션(120)은 장치로서 단순하게 지칭될 수 있다.
컴퓨팅 시스템(130)은 스테이션(120)과 통신할 수 있고, 적어도 하나의 기계 학습 모델(ML)을 포함할 수 있다. 도 1에 도시된 바와 같이, 컴퓨팅 시스템(130)은 스테이션(120)으로부터 복수의 이미지들(IMGs)을 수신할 수 있고, 복수의 이미지들(IMGs)에 기초하여 토지(10)의 속성들을 검출할 수 있다. 토지(10)를 촬영함으로써 생성된 복수의 이미지들(IMGs)은 토지의 속성들, 즉 토질을 식별할 수 있는 다양한 지표들을 포함할 수 있다. 예를 들면, 복수의 이미지들(IMGs)은, 토양의 색상, 토양의 입자 크기, 토지(10)에 서식하는 동물(예컨대, 지렁이 등과 같은 곤충)이나 식물, 식물의 열매, 동물의 흔적 등을 포함할 수 있다. 이에 따라, 적어도 하나의 기계 학습 모델(ML)에 기초하여 복수의 이미지들(IMGs)로부터 지표들이 식별될 수 있고, 식별된 지표들에 기초하여 토질이 검출될 수 있다. 예를 들면, 복수의 이미지들(IMGs)로부터 산성 토지 또는 염기성 토지에 자생하는 식물이 식별된 경우, 토지(10)의 토질의 항목들 중 pH가 검출될 수 있다.
적어도 하나의 기계 학습 모델(ML)은, 입력 이미지로부터 토지의 속성들을 출력하도록, 다양한 토지들을 촬영함으로써 생성된 복수의 샘플 이미지들에 의해서 학습된 상태일 수 있다. 예를 들면, 적어도 하나의 기계 학습 모델(ML)은, 토지(10)의 일부를 촬영함으로서 생성된 복수의 이미지들(IMGs) 각각을 처리하기 위하여, LSTM(long short-term memory), Transformer, ViT(vision transform) 등과 같은 시계열 처리 및 인공 신경망(artificial neural network; ANN)이 조합된 시퀀셜 이미지들을 처리하기 위한 구조를 가질 수 있다. 일부 실시예들에서, 적어도 하나의 기계 학습 모델(ML)의 인공 신경망은, 비제한적인 예시로서 CNN(Convolution Neural Network), R-CNN(Region with Convolution Neural Network), RPN(Region Proposal Network), RNN(Recurrent Neural Network), S-DNN(Stacking-based deep Neural Network), S-SDNN(State-Space Dynamic Neural Network), Deconvolution Network, DBN(Deep Belief Network), RBM(Restricted Boltzmann Machine), Fully Convolutional Network, LSTM(Long Short-Term Memory) Network, Classification Network 등을 포함할 수 있다.
일부 실시예들에서, 컴퓨팅 시스템(130)은 원격지에 위치할 수 있다. 예를 들면, 컴퓨팅 시스템(130)은, 토지(10) 주변에 배치된 스테이션(120)과 인터넷과 같은 네트워크를 통해서 통신할 수도 있고, 토지(10) 주변으로부터 컴퓨팅 시스템(130)이 위치한 장소로 이동된 스테이션(120)과 유선 또는 무선 일대일 채널을 통해서 통신할 수도 있다. 컴퓨팅 시스템(130)은 적어도 하나의 기계 학습 모델(ML)을 실행함으로써 복수의 이미지들(IMGs)을 처리할 수 있는 임의의 시스템을 지칭할 수 있다. 예를 들면, 컴퓨팅 시스템(130)은 서버, 데스크탑 컴퓨터 등과 같이 고정형(stationary) 컴퓨팅 시스템일 수도 있고, 랩탑 컴퓨터, 모바일 단말 등과 같이 이동형(mobile) 컴퓨팅 시스템일 수도 있다. 일부 실시예들에서, 컴퓨팅 시스템(120)은 스테이션(120)에 포함될 수도 있고, 이에 따라 토지(10)의 주변에 위치할 수도 있다.
도 2는 본 발명의 예시적 실시예에 따른 무인기(210) 및 스테이션(220)을 나타내는 블록도이다. 일부 실시예들에서, 도 2의 무인기(210)는 도 1의 제1 내지 제3 무인기(111 내지 113)의 예시일 수 있고, 도 2의 스테이션(220)은 도 1의 스테이션(120)의 예시일 수 있다.
도 2를 참조하면, 무인기(210)는 통신 모듈(211), 카메라 모듈(212), 기준물(213), 전동부(214) 및 전원부(215)를 포함할 수 있다. 통신 모듈(211)은 채널(CH)을 통해서 스테이션(220)과 통신할 수 있다. 일부 실시예들에서, 채널(CH)은 유선 채널일 수 있고, 통신 모듈(211)은 케이블을 통해서 스테이션(220)과 통신할 수 있다. 또한, 일부 실시예들에서, 채널(CH)은 무선 채널일 수 있고, 통신 모듈(211)은 무인기(210)가 스테이션(220)에 근접한 동안 또는 무인기(210)가 토지를 비행하는 동안 안테나를 통해서 스테이션(220)과 통신할 수 있다. 통신 모듈(211)은 채널(CH)을 통해서 스테이션(220)으로부터 수신되는 신호들을 카메라 모듈(212) 및/또는 전동부(214)에 제공할 수도 있고, 카메라 모듈(212)에 의해서 생성된 이미지를 채널(CH)을 통해서 스테이션(220)에 제공할 수도 있다. 또한, 일부 실시예들에서, 무인기(210)는 GPS(global positioning system) 수신기를 포함할 수 있고, 통신 모듈(211)은 GPS 수신기로부터 제공된 무인기(210)의 위치 정보를 채널(CH)을 통해서 스테이션(220)에 제공하거나 카메라 모듈(212)에 의해서 생성된 이미지에 태깅할 수도 있다.
카메라 모듈(212)은 무인기(210)가 비행하는 동안 토지를 촬영함으로써 이미지를 생성할 수 있다. 일부 실시예들에서, 카메라 모듈(212)은 통신 모듈(211)을 통해서 스테이션(220)으로부터 수신되는 설정 신호에 기초하여 설정된 모드에 따라 토지를 촬영할 수 있다. 예를 들면, 설정 신호는 줌 인 또는 줌 아웃 정보를 포함할 수 있고, 카메라 모듈(212)은 설정 신호에 기초하여 줌 인/아웃된 상태에서 토지를 촬영할 수 있다.
기준물(213)은 카메라 모듈(212)의 렌즈 전방에서 고정된 지점에 위치할 수 있고, 카메라 모듈(212)에 의해서 촬영될 수 있다. 카메라 모듈(212)은 토지와 함께 기준물(213)을 촬영할 수 있고, 이에 따라 카메라 모듈(212)이 생성하는 이미지는 토지뿐만 아니라 기준물(213)에 대한 이미지를 포함할 수 있다. 기준물(213)은 미리 정의된 색상 및/또는 형상을 가질 수 있다. 이에 따라, 이미지에서 기준물(213)에 대응하는 부분은, 토지를 촬영하는 상태를 식별하는데 사용될 수 있고, 카메라 모듈(212)에 의해서 생성된 이미지를 전처리(예컨대, 정규화)하는데 사용될 수 있다. 이미지를 전처리하는 동작의 예시는 도 8b를 참조하여 후술될 것이다. 일부 실시예들에서, 무인기(210)에서 기준물(213)은 생략될 수도 있다.
전동부(214)는 전원부(215)로부터 제공되는 전력에 기초하여 무인기(210)를 비행시킬 수 있다. 예를 들면, 전동부(214)는 컨트롤러, 적어도 하나의 모터, 적어도 하나의 프로펠러 등을 포함할 수 있다. 전동부(214)는 통신 모듈(211)을 통해서 스테이션(220)으로부터 수신되는 신호에 기초하여 동작할 수 있다. 예를 들면, 전동부(214)는 통신 모듈(211)을 통해서 비행의 개시 및 종료를 지시하는 신호를 수신할 수도 있고, 루트에 대한 정보를 수신할 수도 있으며, 무인기(210)를 조종하기 위한 조종 신호를 수신할 수도 있다. 전동부(214)에 포함된 컨트롤러는 통신 모듈(211)을 통해서 수신된 신호에 기초하여 적어도 하나의 모터를 제어할 수 있다. 일부 실시예들에서, 도 2에 도시된 바와 상이하게, 무인기(210)는 모터를 포함하는 전동부(214) 대신 내연기관을 포함할 수 있고, 내연기관에 연료를 제공하는 연료함을 포함할 수도 있다.
전원부(215)는 전동부(214)에 전력을 제공할 수 있고, 배터리를 포함할 수 있다. 일부 실시예들에서, 도 2에 도시된 바와 같이, 전원부(215)에 포함된 배터리는 스테이션(220)과 연결됨으로써 스테이션(220)으로부터 전력(PWR)을 수신하여 충전될 수 있다. 전원부(215)는 전동부(214)뿐만 아니라 통신 모듈(211) 및 카메라 모듈(212)을 포함하는 무인기(210)의 다른 구성요소들에도 전력을 제공할 수 있다. 일부 실시예들에서, 전원부(215)는 태양전지판과 같이 전력을 생성하는 구성요소를 포함할 수도 있다. 일부 실시예들에서, 전원부(215)는 배터리의 충전 상태를 통신 모듈(211)을 통해서 스테이션(220)에 제공할 수도 있다.
도 2를 참조하면, 스테이션(220)은 인터페이스(221), 컨트롤러(222), 통신 모듈(223), 센서 모듈(224), 저장부(225) 및 충전부(226)를 포함할 수 있다. 일부 실시예들에서, 센서 모듈(224) 및/또는 충전부(226)는 스테이션(220)에서 생략될 수도 있다. 인터페이스(221)는 외부와의 인터페이스를 스테이션(220)에 제공할 수 있다. 예를 들면, 인터페이스(221)는 키패드, 터치패드, 마이크 등과 같은 입력 장치 및 LED, 디스플레이, 스피커 등과 같은 출력 장치를 포함할 수 있고, 관리자의 입력을 수신하거나 관리자에 정보를 출력함으로서 관리자와의 인터페이스를 제공할 수 있다. 또한, 인터페이스(221)는 도 1의 컴퓨팅 시스템(130)과 통신 채널을 형성할 수 있고, 컴퓨팅 시스템(130)에 대한 인터페이스를 제공할 수도 있다.
컨트롤러(222)는 인터페이스(221), 통신 모듈(223), 센서 모듈(224), 저장부(225) 및 충전부(226)와 통신할 수 있고, 스테이션(220)의 동작을 제어할 수 있다. 예를 들면, 컨트롤러(222)는 인터페이스(221)를 통해서 수신되는 관리자의 입력 및/또는 도 1의 컴퓨팅 시스템(130)의 요청을 처리할 수 있고, 인터페이스(221)를 통해서 관리자 및/또는 컴퓨팅 시스템(130)에 데이터를 제공할 수 있다. 또한, 컨트롤러(222)는 통신 모듈(223)을 통해서 무인기(210)와 통신할 수 있고, 센서 모듈(224)로부터 주변 환경에 대한 정보를 수신할 수도 있으며, 충전부(226)로부터 무인기(210)의 충전 상태를 수신할 수도 있다. 또한, 컨트롤러(222)는 통신 모듈(223)을 통해서 수신되는 이미지들을 저장부(225)에 저장할 수도 있고, 저장부(225)에 저장된 이미지들을 인터페이스(221)를 통해서 관리자 및/또는 컴퓨팅 시스템(130)에 제공할 수도 있다. 본 명세서에서, 컨트롤러(222)의 동작은 스테이션(220)의 동작으로 단순하게 지칭될 수 있고, 컨트롤러(222)의 동작의 예시가 도 3을 참조하여 후술될 것이다.
통신 모듈(223)은, 무인기(210)의 통신 모듈(211)과 유사하게, 채널(CH)을 통해서 무인기(210)와 통신할 수 있다. 통신 모듈(223)은 컨트롤러(222)로부터 제공되는 신호들을 채널(CH)을 통해서 무인기(210)에 제공할 수도 있고, 채널(CH)을 통해서 무인기(210)로부터 수신되는 신호(예컨대, 도 1의 IMGs)를 컨트롤러(222)에 제공할 수도 있다.
센서 모듈(224)은 스테이션(200) 주변 환경을 감지하는 적어도 하나의 센서를 포함할 수 있다. 예를 들면, 센서 모듈(224)은, 조도 센서, 온도 센서, 습도 센서 등을 포함할 수 있다. 주변 환경에 기초하여 이미지가 보정되도록, 컨트롤러(222)는 센서 모듈(224)에 의해서 제공된 주변 환경에 대한 정보를 무인기(210)로부터 제공된 이미지에 태깅(tagging)할 수 있고, 이미지와 함께 주변 환경 정보를 인터페이스(221)를 통해서 컴퓨팅 시스템(130)에 제공할 수 있다. 일부 실시예들에서, 센서 모듈(224)은 스테이션(220)의 외부에 배치될 수 있고, 인터페이스(221)를 통해서 스테이션(220)과 통신할 수도 있다.
저장부(225)는 컨트롤러(222)와 통신할 수 있고, 데이터를 저장하는 저장 매체를 포함할 수 있다. 예를 들면, 저장부(225)는 무인기(210)로부터 수신된 이미지를 저장할 수 있고, 컨트롤러(222)에 저장된 이미지를 제공할 수 있다. 저장부(225)는 임의의 저장 매체를 포함할 수 있고, 예컨대, 플래시 메모리와 같은 반도체 메모리 장치를 포함하는 저장 매체, 자기 디스크를 포함하는 디스크 드라이브 등을 포함할 수 있다. 일부 실시예들에서, 저장부(225)는 스테이션(220)으로부터 탈거가능할 수 있고(detachable) 휴대가능할 수도 있다.
충전부(226)는 무인기(210)와 연결될 수 있고, 무인기(210)에 전력(PWR)을 제공함으로써 전원부(215)에 포함된 배터리를 충전할 수 있다. 충전부(226)는 유선 충전 및/또는 무선 충전을 통해서 전력(PWR)을 무인기(210)에 제공할 수 있다. 무인기(210)는 비행의 개시 전후 스테이션(220)에 의해서 충전될 수 있다. 일부 실시예들에서, 충전부(226)는 무인기(210)의 충전 상태를 컨트롤러(222)에 제공할 수 있다.
도 3은 본 발명의 예시적 실시예에 따른 토지 분석을 위한 방법을 나타내는 순서도이다. 구체적으로, 도 3의 순서도는 전술된 스테이션에 의해서 수행되는 방법을 나타낸다. 도 3에 도시된 바와 같이, 토지 분석을 위한 방법은 복수의 단계들(S10 내지 S40)을 포함할 수 있다. 일부 실시예들에서, 도 3의 방법은 도 2의 스테이션(220)에 의해서 수행될 수 있고, 이하에서 도 3은 도 2를 참조하여 설명될 것이다.
도 3을 참조하면, 단계 S10에서 무인기(210)의 루트가 정의될 수 있다. 예를 들면, 스테이션(220)은 토지를 분석하기 위한 적절한 이미지를 획득하기 위하여, 무인기(210)가 이동할 경로에 대응하는 루트를 정의할 수 있다. 도 1을 참조하여 전술된 바와 같이, 적어도 하나의 무인기가 병렬적으로 또는 순차적으로 비행하는 경우, 스테이션(220)은 복수의 비행들 각각에 대응하는 복수의 루트들을 정의할 수 있다. 단계 S10의 예시가 도 4를 참조하여 후술될 것이다.
단계 S20에서, 스테이션(220)은 무인기(210)와 통신할 수 있다. 예를 들면, 스테이션(220)은 단계 S10에서 정의된 루트에 따라 무인기(210)가 이동하도록, 무인기(210)와 통신할 수 있다. 스테이션(220)은 무인기(210)의 출발을 지시할 수 있고, 무인기(210)는 스테이션(220)의 지시에 의해서 비행을 개시할 수 있다. 단계 S20의 예시들이 도 5a 및 도 5b를 참조하여 후술될 것이다.
단계 S30에서, 복수의 이미지들(IMGs)이 수집될 수 있다. 예를 들면, 스테이션(220)은 무인기(210)가 단계 S10에서 정의된 루트를 따라서 비행 중에 토지를 촬영함으로써 생성한 일련의 이미지들을 수신할 수 있다. 일부 실시예들에서, 스테이션(220)은 무인기(210)가 비행 중 무인기(210)와 통신함으로써 일련의 이미지들을 순차적으로 수신할 수도 있고, 무인기(210)가 비행을 종료하여 스테이션(220)에 도달한 후 일련의 이미지들을 일시에 수신할 수도 있다. 단계 S30의 예시가 도 6을 참조하여 후술될 것이다.
단계 S40에서, 주변 환경 정보가 복수의 이미지들에 태깅될 수 있다. 예를 들면, 스테이션(220)은 센서 모듈(24)로부터 주변 환경을 감지함으로서 생성된 정보, 즉 주변 환경 정보를 단계 S30에서 수신된 복수의 이미지들(IMGs)에 태깅될 수 있다. 일부 실시예들에서, 주변 환경 정보는 센서 모듈(24)뿐만 아니라, 인터페이스(221) 및 네트워크를 통해서 접속한 서버(예컨대, 기상청 서버) 등으로부터 수신된 날씨 정보를 포함할 수도 있다. 주변 환경 정보는, 복수의 이미지(IMGs) 각각에 태깅될 수도 있고, 복수의 이미지들(IMGs)을 포함하는 이미지 그룹에 태깅될 수도 있다. 또한, 도 2를 참조하여 전술된 바와 같이, 복수의 이미지들(IMGs) 각각에 무인기(210)에 의해서 주변 환경 정보로서 위치 정보가 이미 태깅되어 있을 수도 있다. 도 7을 참조하여 후술되는 바와 같이, 복수의 이미지들(IMGs) 및 주변 환경 정보를 포함하는 데이터는 컴퓨팅 시스템(130)의 입력 데이터로서 지칭될 수 있다.
도 4는 본 발명의 예시적 실시예에 따른 토지 분석을 위한 방법을 나타내는 순서도이다. 구체적으로, 도 4의 순서도는 도 3의 단계 S10의 예시를 나타낸다. 도 3을 참조하여 전술된 바와 같이, 도 4의 단계 S10'에서 무인기의 루트가 정의될 수 있다. 도 4에 도시된 바와 같이, 단계 S10'은 복수의 단계들(S11 내지 S13)을 포함할 수 있고, 일부 실시예들에서 단계 S11 또는 단계 S12는 생략될 수도 있다. 일부 실시예들에서, 도 4의 단계 S10'은 도 2의 스테이션(220)에 의해서 수행될 수 있고, 이하에서 도 4는 도 2를 참조하여 설명될 것이다.
도 4를 참조하면, 단계 S11에서 무인기(210)의 항속시간(endurance) 및/또는 항속거리(range)가 식별될 수 있다. 일부 실시예들에서, 스테이션(220)은 충전부(226)를 통해서 또는 무인기(210)와의 통신을 통해서, 무인기(210)의 충전 상태를 식별할 수 있고, 스테이션(220)은 무인기(210)의 충전 상태에 기초하여 무인기(210)의 항속시간 및/또는 항속거리를 판정할 수 있다. 또한, 일부 실시예들에서, 무인기(210)는 전원부(215)에 포함된 배터리의 충전 상태에 기초하여 자신의 항속시간 및/또는 항속거리를 채널(CH)을 통해서 스테이션(220)에 제공할 수도 있다.
단계 S12에서, 토지의 미촬영 영역이 식별될 수 있다. 예를 들면, 스테이션(220)은 촬영할 토지 정보를 인터페이스(221)를 통해서 수신할 수 있고, 토지 정보에 기초하여 토지의 경계를 식별할 수 있다. 스테이션(220)은 토지의 경계 내에서 무인기(210) 및/또는 다른 적어도 하나의 무인기에 의해서 촬영되지 아니한 영역을 식별할 수 있다. 예를 들면, 스테이션(220)은 무인기(210)가 이전 비행시 사용한 루트에 의해서 촬영된 토지의 영역을 제외한 영역을 식별할 수 있다.
단계 S13에서, 무인기(210)의 루트가 정의될 수 있다. 예를 들면, 스테이션(220)은 단계 S11에서 식별된 무인기(210)의 항속시간 및/또는 항속거리에 기초하여 루트의 길이를 판정할 수 있다. 또한, 스테이션(220)은 단계 S12에서 식별된 미촬영 영역에 기초하여 루트의 형상을 정의할 수 있다. 일부 실시예들에서, 도 1을 참조하여 전술된 바와 같이, 2이상의 무인기들이 병렬적으로 토지를 촬영하는 경우, 스테이션(220)은 무인기들이 촬영하는 토지의 영역간 중첩이 최소화되도록 무인기들의 루트들을 정의할 수 있다.
도 5a 및 도 5b는 본 발명의 예시적 실시예들에 따른 토지 분석을 위한 방법의 예시들을 나타내는 메시지도들이다. 구체적으로, 도 5a 및 도 5b의 메시지도들은 도 3의 단계 S20의 예시들을 각각 나타낸다. 도 3을 참조하여 전술된 바와 같이, 도 5a의 단계 S20a 및 도 5b의 단계 S20b에서, 스테이션(220)은 루트에 따라 무인기(210)가 이동하도록, 무인기(210)와 통신할 수 있다. 일부 실시예들에서, 도 5a의 무인기(510a) 및 스테이션(520a)은 무인기(510a)의 비행 중에도 상호 통신할 수 있는 한편, 도 5b의 무인기(510b) 및 스테이션(520b)은 무인기(510b)의 비행 중에 상호 통신하지 아니할 수 있다.
도 5a를 참조하면, 단계 S20a는 복수의 단계들(S21 내지 S25)을 포함할 수 있고, 반복 수행될 수 있다. 단계 S21에서, 무인기(510a)는 위치 정보를 생성할 수 있다. 예를 들면, 무인기(510a)는 GPS 수신기를 포함할 수 있고, GPS 수신기의 출력에 기초하여 자신의 위치 정보를 생성할 수 있다. 그 다음에 단계 S22에서, 무인기(510a)는 위치 정보를 스테이션(520a)에 송신할 수 있고, 스테이션(520a)은 무인기(510a)의 위치 정보를 수신할 수 있다.
단계 S23에서, 스테이션(520a)은 조종 신호를 생성할 수 있다. 예를 들면, 스테이션(520a)은 도 3의 단계 S10에서 정의된 루트 및 단계 S22에서 수신된 위치 정보에 기초하여 조종 신호를 생성할 수 있다. 스테이션(520a)은 무인기(510a)가 루트를 따라 이동하도록, 무인기(510a)의 현재 위치에서 이후 이동할 위치를 식별할 수 있고, 식별된 위치에 기초하여 조종 신호를 생성할 수 있다. 그 다음에 단계 S24에서 스테이션(520a)은 조종 신호를 송신할 수 있고, 무인기(510a)는 조종 신호를 수신할 수 있다.
단계 S25에서, 무인기(510a)는 조종 신호에 따라 이동할 수 있다. 예를 들면, 무인기(510a)는 단계 S24에서 수신된 조종 신호에 기초하여 모터를 제어할 수 있고, 이에 따라 조종 신호가 지시하는 방향으로 이동할 수 있으며, 이동 중 토지를 촬영함으로써 이미지를 생성할 수 있다.
도 5b를 참조하면, 단계 S26에서 스테이션(520b)은 루트 정보를 송신할 수 있고, 무인기(510b)는 루트 정보를 수신할 수 있다. 예를 들면, 단계 S26 및 후술되는 단계 S27은, 무인기(510b)가 비행을 개시하기 전 스테이션(520b)에 근접하게 있는 상태(예컨대, 충전 상태)에서 수행될 수 있다. 이에 따라, 스테이션(520b)은 도 3의 단계 S10에서 정의된 루트에 대한 정보, 즉 루트 정보를 무인기(510b)의 비행 개시 전 제공할 수 있다.
단계 S27에서 무인기(510b)는 루트 정보를 저장할 수 있고, 단계 S28에서 무인기(510b)는 루트를 따라 운행할 수 있다. 예를 들면, 무인기(510b)는 단계 S26에서 스테이션(520b)로부터 제공된 루트 정보를 내부 저장 매체에 저장할 수 있다. 무인기(510b)는, 단계 S27에서 저장된 루트 정보 및 GPS 수신기 등에 의해서 식별된 자신의 위치에 기초하여 모터를 제어함으로써 루트를 따라 운행할 수 있고, 운행 중 토지를 촬영함으로써 이미지를 생성할 수 있다.
도 6은 본 발명의 예시적 실시예에 따른 토지 분석을 위한 방법을 나타내는 메시지도이다. 구체적으로, 도 6의 메시지도는 도 3의 단계 S30의 예시를 나타낸다. 도 3을 참조하여 전술된 바와 같이, 도 6의 단계 S30'에서 복수의 이미지들(IMGs)이 수집될 수 있다. 도 6에 도시된 바와 같이, 단계 S30'은 복수의 단계들(S31 내지 S36)을 포함할 수 있고, 도 6의 무인기(610) 및 스테이션(620)은 무인기(610)의 비행 중에도 상호 통신할 수 있다.
도 6을 참조하면, 단계 S31에서 무인기(610)는 제1 이미지를 생성할 수 있다. 예를 들면, 무인기(610)는 루트를 따라 비행 중 토지를 촬영함으로써 제1 이미지를 생성할 수 있다. 그 다음에 단계 S32에서 무인기(610)는 제1 이미지를 스테이션(620)에 송신할 수 있고, 스테이션(620)은 제1 이미지를 수신할 수 있다.
단계 S33에서, 스테이션(620)은 제1 이미지를 저장할 수 있다. 예를 들면, 스테이션(620)은 단계 S32에서 수신된 제1 이미지를 저장부(예컨대, 도 2의 225)에 저장할 수 있다.
단계 S34에서, 스테이션(620)은 제1 이미지로부터 피처의 검출 여부를 판정할 수 있다. 일부 실시예들에서, 스테이션(620)은, 미리 정의된 규칙들 및/또는 복수의 샘플 이미지들에 의해서 학습된 기계 학습 모델에 기초하여, 단계 S32에서 수신된 제1 이미지로부터 피처를 검출할 수 있다. 예를 들면, 스테이션(620)은 제1 이미지로부터 지렁이와 같이 곤충이나 특정 꽃과 같은 식물로 추정되는 피처를 검출할 수 있다. 또한, 스테이션(620)은 제1 이미지 이전에 촬영되어 무인기(610)로부터 송신된 이미지와 비교할 수 있고, 비교 결과에 따라 급격하게 변경된 속성을 피처로서 검출할 수도 있다. 도 6에 도시된 바와 같이, 피처가 검출된 경우 단계 S35 내지 단계 S38이 후속하여 수행될 수 있다.
단계 S35에서, 스테이션(620)은 설정 신호를 송신할 수 있고, 무인기(610)는 설정 신호를 수신할 수 있다. 일부 실시예들에서, 스테이션(620)은 제1 이미지로부터 피처가 검출된 경우, 검출된 피처를 보다 자세하게 촬영하기 위하여 설정 신호를 생성할 수 있고, 무인기(610)에 제공할 수 있다. 예를 들면, 스테이션(620)은 줌-인을 지시하는 설정 신호를 무인기(610)에 제공할 수 있다.
단계 S36에서, 무인기(610)는 제2 이미지를 생성할 수 있다. 예를 들면, 무인기(610)는 단계 S35에서 수신된 설정 신호에 기초하여 카메라 모듈(예컨대, 도 2의 212)을 설정할 수 있고, 카메라 모듈은 설정된 모드에 따라 토지를 촬영함으로써 제2 이미지를 생성할 수 있다. 그 다음에 단계 S37에서, 무인기(610)는 제2 이미지를 송신할 수 있고, 스테이션(620)은 제2 이미지를 수신할 수 있다.
단계 S38에서, 스테이션(620)은 제2 이미지를 저장할 수 있다. 예를 들면, 스테이션(620)은 단계 S37에서 수신된 제2 이미지를 저장부(예컨대, 도 2의 225)에 저장할 수 있다. 이에 따라, 제1 이미지에서 피처가 검출된 경우, 피처를 보다 자세하게 나타내는 제2 이미지가 저장될 수 있고, 컴퓨팅 시스템(130)에 제공되는 복수의 이미지들은 제1 이미지와 함께 제2 이미지를 포함할 수 있다. 이에 따라, 토지 분석의 정확도가 보다 향상될 수 있다.
도 7은 본 발명의 예시적 실시예에 따른 토지 분석을 위한 방법을 나타내는 순서도이다. 구체적으로, 도 7의 순서도는 도 1의 컴퓨팅 시스템(130)에 의해서 수행되는 방법을 나타낸다. 도 7에 도시된 바와 같이, 토지 분석을 위한 방법은 복수의 단계들(S50 내지 S70)을 포함할 수 있다. 이하에서, 도 7은 도 1을 참조하여 설명될 것이다.
도 7을 참조하면, 단계 S50에서 입력 데이터가 획득될 수 있다. 예를 들면, 컴퓨팅 시스템(130)은 복수의 이미지들(IMGs)을 포함하는 입력 데이터를 스테이션(120)으로부터 수신할 수 있다. 도 1을 참조하여 전술된 바와 같이, 토지(10)를 촬영함으로서 생성된 복수의 이미지들(IMGs)은 토질에 대응하는 다양한 지표들을 포함할 수 있다.
단계 S60에서, 북수의 이미지들(IMGs)이 전처리될 수 있다. 예를 들면, 컴퓨팅 시스템(130)은 토지(10)를 촬영할 당시의 상황에 기초하여 복수의 이미지들(IMGs)을 전처리할 수 있고, 복수의 이미지들(IMGs)이 정규화될 수 있다. 전처리에 의해서 정규화된 이미지들이 분석됨으로써 토지(10)의 분석 정확도가 보다 향상될 수 있다. 단계 S60의 예시들이 도 8a 및 도 8b를 참조하여 후술될 것이다.
단계 S70에서, 적어도 하나의 기계 학습 모델(ML)에 기초하여 토지의 속성들이 검출될 수 있다. 예를 들면, 컴퓨팅 시스템(130)은 복수의 샘플 이미지들에 의해서 학습된 적어도 하나의 기계 학습 모델(ML)을 실행할 수 있고, 단계 S60에서 전처리된 복수의 이미지들로부터 적어도 하나의 기계 학습 모델(ML)을 사용하여 토지의 속성들, 즉 토질을 나타내는 수치들이 검출될 수 있다. 제1 내지 제3 무인기(111 내지 113)에 의해서 촬영되어 생성된 이미지들은 토지(10)의 일부들을 각각 나타낼 수 있고, 일부 실시예들에서 컴퓨팅 시스템(130)은 시퀀셜 이미지를 처리하는 기계 학습 알고리즘에 기초하여 이미지들을 처리할 수 있다. 예를 들면, 최근 발표된 논문 " An Image is Worth 16X16 Words: Transformers for Image Recognition at Scale", Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, Jakob Uszkoreit, Neil Houlsby, ICLR2021에 따르면, 전체 이미지로부터 분할된 이미지들을 처리하는 ViT(vision transform)을 제안한다. 이와 같은 시계열 처리 방식은, 다수의 분할된 영역을 촬영하여 생성된 이미지들을 단일 이미지로 합치는 방식(예컨대, 파노라마 이미지)과 같이 이미지를 합치는 과정이 생략될 수 있고, 다수의 이미지들로부터 직접 원하는 속성들을 추출할 수 있다. 이에 따라, 시계열 처리 방식에서는 높은 해상도의 이미지들을 합치기 위한 방대한 리소스(예컨대, 높은 메모리 용량)가 생략될 수 있다. 컴퓨팅 시스템(130)은 ViT 또는 LISTM과 같은 다른 시계열 처리 방식(또는 시계열 신경망)에 기초하여 전처리된 복수의 이미지들을 처리할 수 있고, 토지의 속성들을 검출할 수 있다. 일부 실시예들에서, 컴퓨팅 시스템(130)은 단계 S60에서 전처리된 복수의 이미지들을 적어도 하나의 이미지(예컨대, 파노라마 이미지)로 합칠 수 있고, 기계 학습 모델(ML)에 기초하여 적어도 하나의 이미지로부터 토지의 속성들을 검출할 수도 있다. 컴퓨팅 시스템(130)은 검출된 토지(10의 속성들을 포함하는 출력 데이터를 생성할 수 있고, 출력 데이터는 토지(10)를 평가하거나 관리하기 위하여 사용될 수 있다.
도 8a 및 도 8b는 본 발명의 예시적 실시예들에 따른 토지 분석을 위한 방법의 예시들을 나타내는 순서도들이다. 구체적으로, 도 8a 및 도 8b의 순서도들은 도 7의 단계 S60의 예시들을 각각 나타낸다. 도 7을 참조하여 전술된 바와 같이, 도 8a의 단계 S60a 및 도 8b의 단계 S60b에서 북수의 이미지들(IMGs)이 전처리될 수 있고, 이에 따라 정규화된 복수의 이미지들이 생성될 수 있다. 이하에서, 도 8a 및 도 8b는 도 1을 참조하여 설명될 것이다.
도 8a를 참조하면, 단계 S60a는 단계 S61 및 단계 S62를 포함할 수 있다. 단계 S61에서, 입력 데이터로부터 주변 환경 정보가 추출될 수 있다. 도 2 및 도 3을 참조하여 전술된 바와 같이, 스테이션(120)은 다양한 방식으로 촬영 당시의 상황, 즉 주변 환경에 대한 정보, 즉 주변 환경 정보를 생성할 수 있고, 복수의 이미지들(IMGs)에 주변 환경 정보를 태깅할 수 있다. 컴퓨팅 시스템(130)은 복수의 이미지들(IMGs)에 태깅된(tagged) 주변 환경 정보를 추출할 수 있고, 추출된 주변 환경 정보에 기초하여 복수의 이미지들(IMGs)의 생성 당시의 환경을 식별할 수 있다.
단계 S62에서, 복수의 이미지들(IMGs)이 보정될 수 있다. 예를 들면, 컴퓨팅 시스템(130)은 단계 S61에서 추출된 주변 환경 정보에 기초하여 스테이션(120)으로부터 수신된 복수의 이미지들(IMGs)을 보정할 수 있다. 예를 들면, 컴퓨팅 시스템(130)은 주변 환경 정보에 기초하여 촬영 당시 밝기를 식별할 수 있고, 식별된 밝기에 기초하여 복수의 이미지들(IMGs)의 명도를 보정할 수 있다. 또한, 컴퓨팅 시스템(130)은 주변 환경 정보에 기초하여 촬영 당시의 습도 및/또는 우천 여부를 식별할 수 있고, 식별된 습도 및 날씨 및 우천 여부에 기초하여 복수의 이미지들(IMGs)에서 토지(10)의 색상을 보정할 수 있다. 이에 따라, 복수의 이미지들(IMGs)은 촬영 당시의 상황에 독립적으로 정규화될 수 있다.
도 8b를 참조하면, 단계 S60b는 단계 S63 및 단계 S64를 포함할 수 있다. 단계 S63에서, 기준물에 대응하는 픽셀들이 검출될 수 있다. 도 2를 참조하여 전술된 바와 같이, 제1 내지 제3 무인기(111 내지 113) 각각은 렌즈의 전방에서 고정된 지점에 위치한 기준물을 토지와 함께 촬영할 수 있다. 기준물의 위치 및 형상은 컴퓨팅 시스템(130)에 미리 공유될 수 있고, 컴퓨팅 시스템(130)은 기준물의 위치에 기초하여 복수의 이미지들(IMGs) 각각에서 기준물에 대응하는 픽셀들을 검출할 수 있다.
단계 S64에서, 복수의 이미지들(IMGs)이 보정될 수 있다. 예를 들면, 기준물의 색상은 컴퓨팅 시스템(S63)에 미리 공유될 수 있고, 컴퓨팅 시스템(130)은 기준물의 원래 색상 및 복수의 이미지들(IMGs)에서 기준물의 촬영된 색상을 비교할 수 있다. 컴퓨팅 시스템(130)은 복수의 이미지들(IMGs)에서 기준물의 촬영된 색상이 기준물의 원래 색상에 대응하도록 복수의 이미지들(IMGs)을 보정할 수 있고, 결과적으로 복수의 이미지들(IMGs)은 촬영 당시의 상황뿐만 아니라 제1 내지 제3 무인기(111 내지 113) 사이 편차들로부터 독립적으로 정규화될 수 있다.
이상에서와 같이 도면과 명세서에서 예시적인 실시예들이 개시되었다. 본 명세서에서 특정한 용어를 사용하여 실시예들을 설명되었으나, 이는 단지 본 발명의 기술적 사상을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.

Claims (10)

  1. 토지를 촬영하도록 구성된 적어도 하나의 무인기와 통신하는 장치에 의해서 수행되는 방법으로서,
    상기 토지에서 상기 적어도 하나의 무인기의 루트(route)를 정의하는 단계;
    정의된 상기 루트에 따라 상기 적어도 하나의 무인기가 이동하도록, 상기 적어도 하나의 무인기와 통신하는 단계; 및
    상기 적어도 하나의 무인기에 의해서 촬영된 복수의 이미지들을 수집하는 단계를 포함하는 방법.
  2. 청구항 1에 있어서,
    상기 루트를 정의하는 단계는,
    상기 적어도 하나의 무인기의 항속시간(endurance) 및 항속거리(range) 중 적어도 하나를 식별하는 단계;
    상기 토지에서 미촬영 영역을 식별하는 단계; 및
    상기 항속시간, 상기 항속거리 및 상기 미촬영 영역에 기초하여, 상기 적어도 하나의 무인기 각각의 루트를 정의하는 단계를 포함하는 것을 특징으로 하는 방법.
  3. 청구항 1에 있어서,
    상기 적어도 하나의 무인기와 통신하는 단계는,
    정의된 상기 루트에 기초하여, 상기 적어도 하나의 무인기에 조종 신호를 송신하는 단계; 및
    정의된 상기 루트에 대한 정보를 상기 적어도 하나의 무인기에 송신하는 단계 중 적어도 하나를 포함하는 것을 특징으로 하는 방법.
  4. 청구항 1에 있어서,
    상기 적어도 하나의 무인기와 통신하는 단계는,
    상기 적어도 하나의 무인기에 의해서 촬영된 제1 이미지를 수신하는 단계;
    상기 제1 이미지에서 적어도 하나의 피처를 검출하는 단계;
    검출된 상기 적어도 하나의 피처에 기초하여, 상기 적어도 하나의 무인기에 설정 신호를 송신하는 단계; 및
    상기 설정 신호에 기초하여 상기 적어도 하나의 무인기에 의해서 촬영된 제2 이미지를 수신하는 단계를 포함하는 것을 특징으로 하는 방법.
  5. 청구항 1에 있어서,
    상기 복수의 이미지들을 수집하는 단계는,
    상기 적어도 하나의 무인기의 비행 중 상기 복수의 이미지들을 순차적으로 수신하는 단계; 및
    비행을 종료한 상기 적어도 하나의 무인기로부터 상기 복수의 이미지들을 수신하는 단계 중 적어도 하나를 포함하는 것을 특징으로 하는 방법.
  6. 청구항 1에 있어서,
    주변 환경 정보를 획득하고, 상기 주변 환경 정보를 상기 복수의 이미지들에 태깅하는 단계를 더 포함하는 방법.
  7. 토지의 분석 및 관리를 위하여 컴퓨팅 시스템에 의해서 수행되는 방법으로서,
    적어도 하나의 무인기에 의해서 토지를 촬영함으로써 생성된 복수의 이미지들을 포함하는 입력 데이터를 획득하는 단계;
    상기 입력 데이터로부터 추출된 정보에 기초하여, 상기 복수의 이미지들을 전처리하는 단계; 및
    복수의 샘플 이미지들에 의해서 학습된 기계 학습 모델에 기초하여, 전처리된 상기 복수의 이미지들로부터 상기 토지의 속성들을 검출하는 단계를 포함하는 방법.
  8. 청구항 7에 있어서,
    상기 복수의 이미지들을 전처리하는 단계는,
    상기 입력 데이터로부터, 상기 토지의 촬영시 상태를 나타내는 주변 환경 정보를 추출하는 단계; 및
    상기 주변 환경 정보에 기초하여, 상기 복수의 이미지들을 보정하는 단계를 포함하는 것을 특징으로 하는 방법.
  9. 청구항 7에 있어서,
    상기 적어도 하나의 무인기는, 렌즈의 전방에 배치된 기준물을 상기 토지와 함께 촬영하도록 구성되고,
    상기 복수의 이미지들을 전처리하는 단계는,
    상기 복수의 이미지들 각각에서 상기 기준물에 대응하는 픽셀들을 검출하는 단계; 및
    상기 픽셀들의 값들에 기초하여, 상기 복수의 이미지들을 보정하는 단계를 포함하는 것을 특징으로 하는 방법.
  10. 청구항 7에 있어서,
    상기 적어도 하나의 기계 학습 모델은, 시계열 처리 및 인공 신경망이 조합된 구조를 가지는 것을 특징으로 하는 방법.
KR1020200177504A 2020-12-17 2020-12-17 무인기를 사용한 토지 분석 및 관리를 위한 방법, 장치 및 시스템 KR20220087118A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200177504A KR20220087118A (ko) 2020-12-17 2020-12-17 무인기를 사용한 토지 분석 및 관리를 위한 방법, 장치 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200177504A KR20220087118A (ko) 2020-12-17 2020-12-17 무인기를 사용한 토지 분석 및 관리를 위한 방법, 장치 및 시스템

Publications (1)

Publication Number Publication Date
KR20220087118A true KR20220087118A (ko) 2022-06-24

Family

ID=82215863

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200177504A KR20220087118A (ko) 2020-12-17 2020-12-17 무인기를 사용한 토지 분석 및 관리를 위한 방법, 장치 및 시스템

Country Status (1)

Country Link
KR (1) KR20220087118A (ko)

Similar Documents

Publication Publication Date Title
US9870609B2 (en) System and method for assessing usability of captured images
Al-Thani et al. Drones for sheep livestock monitoring
WO2020103109A1 (zh) 一种地图生成方法、设备、飞行器及存储介质
WO2020103110A1 (zh) 一种基于点云地图的图像边界获取方法、设备及飞行器
WO2020103108A1 (zh) 一种语义生成方法、设备、飞行器及存储介质
JP7152836B2 (ja) 無人飛行体のアクションプラン作成システム、方法及びプログラム
CN111765974B (zh) 一种基于微型制冷红外热像仪的野生动物观测系统及方法
US10602064B2 (en) Photographing method and photographing device of unmanned aerial vehicle, unmanned aerial vehicle, and ground control device
US20190340197A1 (en) System and method for controlling camera and program
DE112017001480T5 (de) Proaktive Fahrzeugsteuersysteme und -verfahren
CN105468789A (zh) 基于无人飞行器拍摄的图像处理装置及其图像处理方法
CN112528912A (zh) 基于边缘计算的作物生长监测嵌入式系统及方法
US20220139078A1 (en) Unmanned aerial vehicle, communication method, and program
CN115649501A (zh) 一种无人机夜行照明系统及方法
Koo et al. A jellyfish distribution management system using an unmanned aerial vehicle and unmanned surface vehicles
CN111724130A (zh) 一种配网机巡作业管理系统及管理方法
Liu et al. A real-time mobile application for cattle tracking using video captured from a drone
KR20220087118A (ko) 무인기를 사용한 토지 분석 및 관리를 위한 방법, 장치 및 시스템
Sandhu et al. Plant disease detection using ML and UAV
KR20190006634A (ko) 광역 드론 운용을 위한 시스템, 방법 및 장치
JP6360650B1 (ja) 異常検知システム、方法及びプログラム
Hensel et al. Object Detection and Mapping with Unmanned Aerial Vehicles Using Convolutional Neural Networks
Suhas et al. AgrOne: an agricultural drone using internet of things, data analytics and cloud computing features
WO2021125063A1 (ja) 情報処理装置、情報処理方法、プログラムおよび移動体
KR20220129706A (ko) 과실 수량 측정 시스템 및 그 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal