KR20210158538A - System and method for generating farming map of agricultural robot based on artificial intelligence - Google Patents

System and method for generating farming map of agricultural robot based on artificial intelligence Download PDF

Info

Publication number
KR20210158538A
KR20210158538A KR1020200076978A KR20200076978A KR20210158538A KR 20210158538 A KR20210158538 A KR 20210158538A KR 1020200076978 A KR1020200076978 A KR 1020200076978A KR 20200076978 A KR20200076978 A KR 20200076978A KR 20210158538 A KR20210158538 A KR 20210158538A
Authority
KR
South Korea
Prior art keywords
cultivation
robot
farmland
map
artificial intelligence
Prior art date
Application number
KR1020200076978A
Other languages
Korean (ko)
Other versions
KR102371433B1 (en
Inventor
변계섭
Original Assignee
농업회사법인 주식회사 루이팜
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 농업회사법인 주식회사 루이팜 filed Critical 농업회사법인 주식회사 루이팜
Priority to KR1020200076978A priority Critical patent/KR102371433B1/en
Publication of KR20210158538A publication Critical patent/KR20210158538A/en
Application granted granted Critical
Publication of KR102371433B1 publication Critical patent/KR102371433B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/004Map manufacture or repair; Tear or ink or water resistant maps; Long-life maps
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B69/00Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
    • A01B69/007Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow
    • A01B69/008Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow automatic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • B64C2201/127
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • B64U2101/32UAVs specially adapted for particular uses or applications for imaging, photography or videography for cartography or topography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Geometry (AREA)
  • Environmental Sciences (AREA)
  • Soil Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Remote Sensing (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a system and method for generating a farming map for an agricultural robot based on artificial intelligence, and more specifically, to a technology for performing polygon rendering using an aerial photographed image to identify the boundary between farming fields, to identify an actually available space according to a type of crop and generating a farming map to provide it to a robot farm machine, thereby accurately performing a farming work even in the available space area near the boundary between the farming fields, and efficiently performing the farming work.

Description

인공지능 기반 농업 로봇용 농경지 경작지도 생성 시스템 및 방법{SYSTEM AND METHOD FOR GENERATING FARMING MAP OF AGRICULTURAL ROBOT BASED ON ARTIFICIAL INTELLIGENCE}SYSTEM AND METHOD FOR GENERATING FARMING MAP OF AGRICULTURAL ROBOT BASED ON ARTIFICIAL INTELLIGENCE

본 발명은 인공지능 기반 농업 로봇용 농경지 경작지도 생성 시스템 및 방법에 관한 것으로, 더욱 구체적으로는 항공 촬영 이미지를 이용하여 폴리곤 렌더링을 수행한 후 경작지 간의 경계면을 파악하고, 작물을 종류에 따른 실제 경작 가능 공간을 파악하여 경작 지도를 생성한 후 로봇 농기계에 제공함으로써 경작지 간의 경계면 근처의 경작 가능 영역에도 정확하게 경작 작업이 수행되도록 하여 효율적으로 경작 작업이 이루어지도록 할 수 있는 기술에 대한 것이다.The present invention relates to a system and method for generating a farmland cultivation map for an artificial intelligence-based agricultural robot, and more specifically, to perform polygon rendering using an aerial photographed image, then to identify the boundary between farmland and to actually cultivate crops according to the type It is about a technology that can efficiently perform tillage work by identifying the available space, creating a tillage map, and providing it to the robot farm machine so that the tillage work can be performed accurately even in the arable area near the boundary between the cultivated fields.

농업은 우리의 먹거리를 책임지는 매우 중요한 산업분야이다. 농업은 파종이후, 제초, 수확 등 수많은 노동력을 필요로 한다. 과거에는 수작업에 의해 진행되어 많은 노동력을 필요로 하였으나, 점차 기계화되면서 수동의 농기계 조작이 아니라, 스스로 주행해가면서 작업할 수 있는 다양한 농업용 로봇에 대한 기술들이 개발되어 지고 있어 노동력이 많이 절감되었다.Agriculture is a very important industry that is responsible for our food. Agriculture requires a lot of labor after sowing, weeding and harvesting. In the past, it was done manually and required a lot of labor, but as it is gradually mechanized, technologies for various agricultural robots that can work while driving by themselves, rather than manual operation of agricultural machines, are being developed, reducing labor a lot.

이러한 농업용 로봇으로 경작지 내에 농작물을 경작 및 관리하기 위해서는 농업용 로봇을 위한 전자지도(경작지도)가 필요한데, 종래에는 전자지도(경작지도)의 정확성이 떨어져 농업용 로봇이 경작지 간의 경계면 근처의 경작 가능 영역을 경작하지 않는 등 농경지를 정밀한 수준으로 경작하지 못하는 문제점이 있었다.In order to cultivate and manage crops in arable land with these agricultural robots, an electronic map (farming map) for agricultural robots is required. Conventionally, the accuracy of the electronic map (farming map) is low, so that the agricultural robot can use the arable area near the boundary between arable land. There was a problem in that the farmland could not be cultivated at a precise level, such as not tilling.

한편, 농업 로봇용 경작지도에 관한 종래기술은 대한민국등록특허 제10-1374802호 등이 있다.On the other hand, as for the prior art related to the cultivation guidance for agricultural robots, there are Korean Patent Registration No. 10-1374802 and the like.

항공 촬영 이미지를 이용하여 폴리곤 렌더링을 수행한 후 경작지 간의 경계면을 파악하고, 작물을 종류에 따른 실제 경작 가능 공간을 파악하여 경작 지도를 생성한 후 로봇 농기계에 제공함으로써 경작지 간의 경계면 근처의 경작 가능 영역에도 정확하게 경작 작업이 수행되도록 하여 효율적으로 경작 작업이 이루어지도록 할 수 있는 인공지능 기반 농업 로봇용 농경지 경작지도 생성 시스템 및 방법을 제공하는 데 그 목적이 있다.After polygon rendering using aerial photographed images, the boundary between arable land is identified, the actual arable space according to the type of crop is identified, and a arable area near the boundary between arable land is provided to the robot agricultural machine after generating a cultivation map. An object of the present invention is to provide a system and method for generating a farmland cultivation map for an artificial intelligence-based agricultural robot that can efficiently perform cultivation by accurately performing cultivation work in

본 발명이 해결하려는 과제는 전술한 과제로 제한되지 아니하며, 언급되지 아니한 또 다른 기술적 과제들은 후술할 내용으로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above problems, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description.

상기 목적을 달성하기 위한 본 발명에 따른 인공지능 기반 농업 로봇용 농경지 경작지도 생성 시스템은 경작지도를 생성하기 위한 항공 촬영을 수행하는 무인드론; 상기 무인드론으로부터 전송 받은 항공 촬영 이미지를 이용하여 경작지도를 생성하는 운용서버; 및 상기 운용서버로부터 전송 받은 경작지도를 바탕으로 농경지에 작물을 경작하는 로봇 농기계;를 포함하는 것을 특징으로 한다.According to the present invention for achieving the above object, there is provided a system for generating a farmland cultivation map for an artificial intelligence-based agricultural robot, comprising: an unmanned drone that performs aerial photography to generate a cultivation map; an operation server for generating a cultivation map using the aerial photographed image received from the unmanned drone; and a robot agricultural machine that cultivates crops on farmland based on the cultivation map transmitted from the operation server.

이때, 상기 운용서버는,상기 무인드론 및 로봇 농기계와 정보 송수신을 위한 통신채널을 연결하기 위해 마련되는 통신처리부; 상기 무인드론으로부터 전송 받은 항공 촬영 이미지를 이용하여 폴리곤 렌더링을 수행한 후 농경지의 경계선을 파악하여 경작지도를 생성하고, 생성된 경작지도를 상기 로봇 농기계로 제공하기 위해 마련되는 인공지능 경작지도 생성부; 생성된 경작지도 데이터를 상기 로봇 농기계로 전송할 수 있는 전송 표준 포맷으로 변환하기 위해 마련되는 데이터 처리부; 및 경작지도 데이터와 상기 로봇 농기계로부터 수신된 토양 상태 정보를 저장하기 위해 마련되는 데이터베이스;를 포함하며, 상기 인공지능 경작지도 생성부는 딥러닝 기반의 인공지능으로 구성되어 상기 로봇 농기계로부터 전송된 토양의 각종 상태 정보와 폴리곤의 밀도 정보를 매칭 하여 농경지에 경작될 농작물의 종류를 자동으로 파악할 수 있는 것을 특징으로 한다.At this time, the operation server, Communication processing unit provided to connect the communication channel for transmitting and receiving information with the unmanned drone and the robot agricultural machine; After performing polygon rendering using the aerial photographed image received from the unmanned drone, an artificial intelligence cultivation map generation unit provided to identify the boundaries of farmland to generate a cultivation map, and to provide the generated cultivation map to the robot farming machine ; a data processing unit provided to convert the generated cultivation map data into a transmission standard format that can be transmitted to the robot agricultural machine; and a database provided to store the cultivation map data and the soil state information received from the robot agricultural machine, wherein the artificial intelligence cultivation map generation unit is composed of deep learning-based artificial intelligence, the soil transmitted from the robot agricultural machine. It is characterized in that it is possible to automatically identify the type of crops to be cultivated on the farmland by matching various state information and polygon density information.

또한, 상기 로봇 농기계는, 상기 운용서버와 정보 송수신을 위한 통신 채널을 연결하기 위해 마련되는 통신부; 상기 로봇 농기계의 각 구성을 제어하기 위해 마련되는 제어부; 상기 로봇 농기계의 경작 과정에서 해당 토양에 관한 각종 상태 정보를 측정하기 위해 마련되는 센서부; 및 상기 운용서버로부터 전송받은 경작지도 데이터를 저장하기 위해 마련되는 저장부;를 포함하는 것을 특징으로 한다.In addition, the robot agricultural machine, a communication unit provided to connect the operation server and a communication channel for transmitting and receiving information; a control unit provided to control each configuration of the robot agricultural machine; a sensor unit provided to measure various state information about the soil in the cultivation process of the robot agricultural machine; and a storage unit provided to store the cultivation map data received from the operation server.

한편, 상기 목적을 달성하기 위한 본 발명에 따른 인공지능 기반 농업 로봇용 농경지 경작지도 생성 방법은 무인드론을 이용하여 경작을 하기 위한 농경지의 항공 촬영을 수행하는 (a)단계; 상기 무인드론이 항공 촬영 이미지를 운용서버의 인공지능 경작지도 생성부로 전송하는 (b)단계; 상기 인공지능 경작지도 생성부에서 상기 무인드론으로부터 전송 받은 항공 촬영 이미지를 이용하여 폴리곤 렌더링을 수행한 후 농경지 간의 경계면을 파악하여 경작지도를 생성하는 (c)단계; 생성된 경작지도를 상기 운용서버의 데이터베이스에 저장함과 동시에 상기 운용서버의 데이터 처리부에서 생성된 경작지도 데이터를 로봇 농기계로 전송할 수 있는 전송 표준 포맷으로 변환하여 상기 로봇 농기계로 전송하는 (d)단계; 상기 로봇 농기계가 전송받은 경작지도를 기반으로 농경지에 경작 활동을 함과 동시에 상기 로봇 농기계의 센서부를 통해 해당 농경지 토양의 각종 상태 정보를 수집하는 (e)단계; 및 상기 로봇 농기계의 센서부를 통해 수집된 농경지 토양의 각종 상태 정보를 상기 운용서버로 전송하는 (f)단계;를 포함하는 것을 특징으로 한다.On the other hand, according to the present invention for achieving the above object, there is provided a method for generating a farmland cultivation map for an artificial intelligence-based agricultural robot, comprising: (a) performing aerial photography of farmland for cultivation using an unmanned drone; (b) transmitting, by the unmanned drone, an aerial photographed image to an artificial intelligence cultivation map generator of an operation server; (c) generating a cultivation map by performing polygon rendering by the artificial intelligence cultivation map generator using the aerial photographed image transmitted from the unmanned drone, and then identifying the boundary between farmland; (d) storing the generated cultivation map in the database of the operation server and at the same time converting the cultivation map data generated by the data processing unit of the operation server into a transmission standard format that can be transmitted to the robot agricultural machine and transmitting it to the robot agricultural machine; (e) performing cultivation activities on farmland based on the farm map received by the robot farm machine and simultaneously collecting various state information of the soil in the farmland through the sensor unit of the robot farm machine; and (f) transmitting various state information of farmland soil collected through the sensor unit of the robot agricultural machine to the operation server.

이때, 상기 운용서버의 인공지능 경작지도 생성부를 통해 수행되는 상기 (c)단계는, 폴리곤 렌더링이 수행된 이미지에서 각각의 폴리곤이 만나는 꼭지점의 개수를 이용하여 경계면 점의 좌표를 파악 하는 단계; 각각의 경계면 점을 선으로 연결하여 정리하는 단계; GPS 또는 GLONASS 좌표와 연동하여 지상좌표계로 변환하는 단계; 및 상기 로봇 농기계로부터 수신된 토양의 각종 상태 정보와 폴리곤의 밀도 정보를 매칭 하여 농경지에 경작될 농작물의 종류를 변별하여 농경지에서 실제 경작 가능한 공간을 파악하는 단계;를 포함하는 것을 특징으로 한다.At this time, the step (c) performed through the artificial intelligence cultivation map generation unit of the operation server includes: identifying the coordinates of the boundary point using the number of vertices where each polygon meets in the polygon-rendered image; arranging by connecting each boundary point with a line; converting to a terrestrial coordinate system in conjunction with GPS or GLONASS coordinates; and matching the various state information of the soil received from the robot agricultural machine and the density information of polygons to discriminate the types of crops to be cultivated on the farmland to determine the actual arable space in the farmland.

본 발명에 따르면 항공 촬영 이미지를 이용하여 폴리곤 렌더링을 수행한 후 폴리곤의 밀도 차이를 통해 경작지 간의 경계면을 정확히 파악한 경작지도를 생성한 후 로봇 농기계에 전송함으로써 로봇 농기계를 통해 정확한 위치에 농작물을 경작하는 것이 가능한 효과가 있다.According to the present invention, after performing polygon rendering using an aerial photographed image, a cultivated map that accurately grasps the boundary between cultivated fields through the difference in density of polygons is generated, and then transmitted to the robot agricultural machine to cultivate crops at the correct location through the robot agricultural machine. There is a possible effect.

또한, 로봇 농기계의 센서부에서 측정된 각종 토양 상태 정보와 폴리곤의 밀도 정보를 누적하여 저장하고, 딥러닝 기반의 인공지능 경작지도 생성부에서 저장된 정보를 바탕으로 폴리곤의 밀도 범위에 따른 농작물의 종류를 매칭시킴으로써 농작물의 종류를 파악하고, 농작물의 종류에 따른 실제 경작 가능 공간을 정확하게 파악하여 경작 지도를 생성한 후 로봇 농기계에 제공함으로써 로봇 농기계의 경작 작업 시 경작지 사이의 논두렁, 밭두렁이 무너지는 것을 방지하고 효율적으로 경작 작업이 이루어지도록 할 수 있는 효과가 있다.In addition, various soil state information and polygon density information measured by the sensor unit of the robot agricultural machine are accumulated and stored, and the types of crops according to the density range of polygons are based on the information stored in the deep learning-based artificial intelligence cultivation map generation unit. It identifies the types of crops by matching them, and accurately identifies the actual arable space according to the types of crops, creates a cultivation map, and provides it to the robotic agricultural machinery to prevent the collapse of paddy fields and paddy fields between cultivated fields during the cultivating operation of the robotic agricultural machinery. It has the effect of preventing and allowing efficient tillage work.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 실시예에 따른 인공지능 기반 농업 로봇용 농경지 경작지도 생성 시스템의 구성을 설명하기 위한 블록도이다.
도 2 및 도 3은 본 발명의 실시예에 따른 인공지능 기반 농업 로봇용 농경지 경작지도 생성 방법을 통한 경작지도 생성 과정을 설명하기 위한 흐름도이다.
도 4는 무인드론을 통해 촬영된 항공 촬영 이미지를 보여주는 도면이다.
도 5는 항공 촬영 이미지를 바탕으로 폴리곤 렌더링을 수행한 이미지를 보여주는 도면이다.
도 6은 폴리곤 렌더링이 수행된 이미지에서 경계면을 확대한 도면이다.
도 7은 경작지에서 실제 경작이 가능한 공간을 파악하는 과정을 설명하기 위한 도면이다.
1 is a block diagram for explaining the configuration of a system for generating a farmland cultivation map for an artificial intelligence-based agricultural robot according to an embodiment of the present invention.
2 and 3 are flowcharts for explaining a process of generating a farmland map through the method for generating a farmland cultivation map for an artificial intelligence-based agricultural robot according to an embodiment of the present invention.
4 is a view showing an aerial photographed image taken through an unmanned drone.
5 is a diagram illustrating an image obtained by performing polygon rendering based on an aerial photographed image.
6 is an enlarged view of a boundary surface in an image on which polygon rendering is performed.
7 is a view for explaining a process of identifying a space that can actually be cultivated in arable land.

이하에서는 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 설명한다. 다만 발명의 요지와 무관한 일부 구성은 생략 또는 압축할 것이나, 생략된 구성이라고 하여 반드시 본 발명에서 필요가 없는 구성은 아니며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 결합되어 사용될 수 있다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. However, some components irrelevant to the gist of the present invention will be omitted or compressed, but the omitted configuration is not necessarily a configuration that is not necessary in the present invention, and will be used in combination by those of ordinary skill in the art to which the present invention belongs. can

더불어 이하에서 설명하게 되는 각 구성부와 서버 및 시스템은 반드시 각각의 기능을 수행하는 독립적인 구성부나 서버로 이루어져야 하는 것은 아니며, 하나 이상의 프로그램 또는 하나 이상의 서버 또는 하나 이상의 시스템의 집합으로 구현되거나 일부가 공유될 수도 있음을 밝히는 바이다.In addition, each component, server, and system to be described below does not necessarily consist of an independent component or server that performs each function, and may be implemented as a set of one or more programs, one or more servers, or one or more systems, or a part Note that it may be shared.

도 1은 본 발명의 실시예에 따른 인공지능 기반 농업 로봇용 농경지 경작지도 생성 시스템의 구성을 설명하기 위한 블록도이고, 도 2 및 도 3은 본 발명의 실시예에 따른 인공지능 기반 농업 로봇용 농경지 경작지도 생성 방법을 통한 경작지도 생성 과정을 설명하기 위한 흐름도이고, 도 4는 무인드론을 통해 촬영된 항공 촬영 이미지를 보여주는 도면이고, 도 5는 항공 촬영 이미지를 바탕으로 폴리곤 렌더링을 수행한 이미지를 보여주는 도면이고, 도 6은 폴리곤 렌더링이 수행된 이미지에서 경계면을 확대한 도면이고, 도 7은 경작지에서 실제 경작이 가능한 공간을 파악하는 과정을 설명하기 위한 도면이다.1 is a block diagram for explaining the configuration of a system for generating a farmland cultivation map for an artificial intelligence-based agricultural robot according to an embodiment of the present invention, and FIGS. 2 and 3 are for an artificial intelligence-based agricultural robot according to an embodiment of the present invention It is a flowchart for explaining the process of generating a cultivation map through the method of generating a farmland cultivation map, FIG. 4 is a diagram showing an aerial photographed image photographed through an unmanned drone, and FIG. 5 is an image obtained by performing polygon rendering based on the aerial photographed image , FIG. 6 is an enlarged view of a boundary surface in an image on which polygon rendering is performed, and FIG. 7 is a view for explaining a process of identifying an actual cultivateable space in arable land.

도 1에 도시된 바와 같이 본 발명의 실시예에 따른 인공지능 기반 농업 로봇용 농경지 경작지도 생성 시스템은 운용서버(100), 무인드론(200) 및 로봇 농기계(300)를 포함하여 구성된다.As shown in FIG. 1 , the system for generating a farmland cultivation map for an artificial intelligence-based agricultural robot according to an embodiment of the present invention is configured to include an operation server 100 , an unmanned drone 200 , and a robot agricultural machine 300 .

운용서버(100)는 통신처리부(110), 인공지능 경작지도 생성부(120), 데이터 처리부(120) 및 데이터베이스(140)를 포함한다.The operation server 100 includes a communication processing unit 110 , an artificial intelligence cultivation map generation unit 120 , a data processing unit 120 , and a database 140 .

통신처리부(110)는 무인드론(200) 및 로봇 농기계(300)와 정보 송수신을 위한 통신채널을 연결하기 위해 마련된다.The communication processing unit 110 is provided to connect the unmanned drone 200 and the robot agricultural machine 300 and a communication channel for transmitting and receiving information.

인공지능 경작지도 생성부(120)는 후술할 무인드론(200)으로부터 수신 받은 항공 촬영 이미지를 이용하여 폴리곤 렌더링을 수행한 후 논, 밭 등의 농경지의 경계선을 파악하여 경작지도를 생성한 후 후술할 로봇 농기계(300)로 제공하기 위해 마련된다. 이러한 인공지능 경작지도 생성부(120)는 딥러닝 기반의 인공지능으로 구성되어 후술할 로봇 농기계(300)로부터 수신된 자갈, 모래 및 미사의 비율, 토양의 수분량, 산도 등을 포함하는 토양의 각종 상태 정보와 폴리곤의 밀도 정보를 매칭하여 농경지에 실제로 경작된 농작물의 종류를 자동으로 파악할 수 있다. 또한, 파악된 농작물의 종류에 따라 해당 농경지에 실제로 경작이 이루어질 수 있는 공간을 파악할 수 있다. 이에 대한 구체적인 설명은 후술하도록 한다.The artificial intelligence cultivation map generation unit 120 performs polygon rendering using the aerial photographed image received from the unmanned drone 200, which will be described later, and then identifies the boundaries of farmland such as paddy fields and fields to generate a cultivation map, which will be described later. It is provided to provide to the robot farm machine 300 to do. The artificial intelligence cultivation map generation unit 120 is composed of deep learning-based artificial intelligence, and various types of soil including the ratio of gravel, sand and silt received from the robot agricultural machine 300 to be described later, the moisture content of the soil, the acidity, etc. By matching the state information and the density information of polygons, it is possible to automatically determine the types of crops actually cultivated on the farmland. In addition, it is possible to determine a space in which cultivation can be actually performed on a corresponding farmland according to the identified crop type. A detailed description thereof will be provided later.

데이터 처리부(130)는 생성된 경작지도 데이터를 후술할 로봇 농기계(300)로 전송할 수 있는 전송 표준 포맷으로 변환하기 위해 마련된다.The data processing unit 130 is provided to convert the generated cultivation map data into a transmission standard format that can be transmitted to a robot agricultural machine 300 to be described later.

데이터베이스(140)는 농경지 간의 경계선, 인접 농경지와의 거리, 농경지의 폴리곤 밀도, 농경지 내부에서 실제 경작 가능한 공간 정보 등을 포함하는 경작지도 데이터와 후술할 로봇 농기계(300)로부터 수신된 토양 상태 정보(자갈, 모래 및 미사의 비율, 토양의 수분량, 산도 등)를 저장하기 위해 마련된다.The database 140 includes farm map data including boundary lines between farmland, distance from adjacent farmland, polygon density of farmland, spatial information that can be actually cultivated within farmland, and soil condition information received from the robot agricultural machine 300 to be described later ( It is provided to store the proportions of gravel, sand and silt, moisture content of the soil, acidity, etc.).

무인드론(200)은 경작지도를 생성하기 위한 항공 촬영을 수행하는 역할을 하며, 통신부(210), 촬영부(220) 및 제어부(230)를 포함하여 구성된다.The unmanned drone 200 serves to perform aerial photography for generating a cultivation map, and includes a communication unit 210 , a photographing unit 220 , and a control unit 230 .

통신부(210)는 운용서버(100)와 정보 송수신을 위한 통신 채널을 연결하고, 사용자가 원격 컨트롤러(미도시)를 통해 입력하는 무인드론(200) 제어 신호를 수신하기 위해 마련된다.The communication unit 210 connects the operation server 100 and a communication channel for transmitting and receiving information, and is provided to receive the unmanned drone 200 control signal input by the user through a remote controller (not shown).

촬영부(220)는 경작지도 생성을 위한 항공 촬영을 수행하기 위해 마련된다.The photographing unit 220 is provided to perform aerial photographing for generating a cultivation map.

제어부(230)는 무인드론(200)의 원격 컨트롤러(미도시)로부터 수신되는 제어 신호에 따라 무인드론(200)의 각 구성을 제어하기 위해 마련된다.The control unit 230 is provided to control each configuration of the unmanned drone 200 according to a control signal received from a remote controller (not shown) of the unmanned drone 200 .

한편, 도면에는 도시되지 않았지만 무인드론(200)에 라이다(LiDAR, Light Detection And Ranging) 장치를 별도로 장착하여 농경지의 고도를 측정하여 운용서버(100)에 전송할 수 있으며, 구동을 위한 전력을 제공하기 위한 배터리(미도시)가 별도로 구비될 수 있다.On the other hand, although not shown in the drawing, a LiDAR (Light Detection And Ranging) device is separately mounted on the unmanned drone 200 to measure the altitude of the farmland and transmit it to the operation server 100, and provides power for driving A battery (not shown) for this purpose may be separately provided.

한편 운용서버(100)와 연계되는 로봇 농기계(300)는 운용서버(100)로부터 전송받은 경작지도 데이터를 바탕으로 농경지에 작물을 경작하는 역할을 하며, 이러한 로봇 농기계(300)는 통신부(310), 제어부(320), 센서부(330) 및 저장부(340)를 포함한다.On the other hand, the robot agricultural machine 300 linked to the operation server 100 serves to cultivate crops on the farmland based on the cultivation map data transmitted from the operation server 100, and the robot agricultural machine 300 is a communication unit 310. , a control unit 320 , a sensor unit 330 , and a storage unit 340 .

통신부(310)는 운용서버(100)와 정보 송수신을 위한 통신 채널을 연결하기 위해 마련된다.The communication unit 310 is provided to connect the operation server 100 and a communication channel for transmitting and receiving information.

제어부(320)는 로봇 농기계(300)의 각 구성을 제어하기 위해 마련된다.The control unit 320 is provided to control each configuration of the robot agricultural machine 300 .

센서부(330)는 로봇 농기계(300)의 경작 과정에서 해당 토양에 관한 각종 상태 정보(자갈, 모래 및 미사의 비율, 토양의 수분량, 산도 등)를 측정하기 위해 마련되며, 센서부(330)에서 측정된 토양에 관한 정보는 이후 통신부(310)를 통해 운용서버(100)에 전송된다.The sensor unit 330 is provided to measure various state information (ratio of gravel, sand and silt, soil moisture content, acidity, etc.) about the soil in the cultivation process of the robot agricultural machine 300, and the sensor unit 330 The information on the soil measured in is then transmitted to the operation server 100 through the communication unit 310 .

저장부(340)는 운용서버(100)로부터 전송받은 경작지도 데이터를 저장하기 위해 마련된다.The storage unit 340 is provided to store the cultivation map data transmitted from the operation server 100 .

이하에서는 도 2 내지 도 7을 통해 도 1에 도시된 인공지능 기반 농업 로봇용 농경지 경작지도 생성 시스템을 통한 경작지도 생성 과정에 대하여 설명토록 한다.Hereinafter, a process for generating a cultivation map through the system for generating a farmland cultivation map for an artificial intelligence-based agricultural robot shown in FIG. 1 will be described with reference to FIGS. 2 to 7 .

먼저, 도 2에 도시된 바와 같이 무인드론(200)을 이용하여 경작을 하기 위한 농경지의 항공 촬영을 수행(S400)한다. 이때, 무인드론(200)에 라이다(LiDAR, Light Detection And Ranging) 장치를 별도로 장착하여 농경지의 고도를 측정하는 것도 가능하다.First, as shown in FIG. 2 , aerial photography of farmland for cultivation is performed using the unmanned drone 200 ( S400 ). In this case, it is also possible to measure the altitude of the farmland by separately mounting a LiDAR (Light Detection And Ranging) device to the unmanned drone 200 .

무인드론(200)이 항공 촬영 이미지(도 4 참조) 및 농경지의 고도 정보를 운용서버(100)의 인공지능 경작지도 생성부(120)로 전송(S410)하면, 인공지능 경작지도 생성부(120)는 무인드론(200)으로부터 전송 받은 항공 촬영 이미지를 이용하여 도 5에 도시된 바와 같이 폴리곤 렌더링을 수행(S420)한 후, 농경지 간의 경계면을 파악하여 경작지도를 생성(S430)하고, 생성된 경작지도를 데이터베이스(140)에 저장함과 동시에 데이터 처리부(130)에서 생성된 경작지도 데이터를 로봇 농기계(300)로 전송할 수 있는 전송 표준 포맷으로 변환하여 로봇 농기계(300)로 전송(S440)한다. 이후, 로봇 농기계(300)는 전송받은 경작지도를 기반으로 농경지에 경작 활동을 함과 동시에 센서부(330)를 통해 해당 농경지 토양의 각종 정보를 수집(S450)하여 수집된 농경지 토양의 정보를 운용서버(100)로 전송(S460)한다.When the unmanned drone 200 transmits the aerial photographed image (refer to FIG. 4) and the altitude information of the farmland to the artificial intelligence cultivation map generation unit 120 of the operation server 100 (S410), the artificial intelligence cultivation map generation unit 120 ) performs polygon rendering as shown in FIG. 5 using the aerial photographed image transmitted from the unmanned drone 200 (S420), and then identifies the boundary between farmland to generate a cultivation map (S430), and the generated The cultivation map is stored in the database 140 and, at the same time, the cultivation map data generated by the data processing unit 130 is converted into a transmission standard format that can be transmitted to the robot agricultural machine 300 and transmitted to the robot agricultural machine 300 (S440). Thereafter, the robot agricultural machine 300 performs cultivation activities on the farmland based on the received cultivation map, and at the same time collects various information of the farmland soil through the sensor unit 330 (S450) to operate the collected farmland soil information. It is transmitted to the server 100 (S460).

이때, 상기 농경지 간의 경계면을 파악하여 경작지도를 생성(S430)하는 단계는 도 3에 도시된 바와 같이 폴리곤 렌더링이 수행된 이미지에서 각각의 폴리곤이 만나는 꼭지점의 개수를 이용하여 경계면 점의 좌표를 파악(S431)하는 단계, 각각의 경계면 점을 선으로 연결하여 정리(S432)하는 단계, GPS 또는 GLONASS 좌표와 연동하여 지상좌표계로 변환(S433)하는 단계 및 로봇 농기계(300)로부터 수신된 토양의 각종 상태 정보를 바탕으로 작물의 종류를 변별하여 실제 경작 가능 공간을 파악하여 경작지도를 완성(S434)하는 단계를 포함한다.In this case, the step of generating a cultivation map by identifying the boundary between the farmland (S430) is to determine the coordinates of the boundary point using the number of vertices where each polygon meets in the image on which the polygon rendering is performed, as shown in FIG. 3 . Step (S431), the step of arranging (S432) by connecting each boundary point with a line, the step of converting (S433) to the ground coordinate system in conjunction with GPS or GLONASS coordinates, and various types of soil received from the robot agricultural machine 300 Completing the cultivation map (S434) by identifying the actual arable space by discriminating the type of crop based on the status information.

구체적으로, 도 4 및 도 5에 도시된 바와 같이 항공 촬영 이미지를 바탕으로 폴리곤 렌더링이 수행된 이미지를 보면 농작물이 실제로 재배되는 공간인 농경지의 경우 농작물이 재배되지 않는 공간인 농경지 사이의 길, 논두렁, 밭두렁 등에 비해 폴리곤의 밀도가 높다. 즉, 농경지의 경우 길, 논두렁, 밭두렁 등에 비해 일정 면적 내에 폴리곤의 개수가 더 많으며, 이에 따라 각각의 폴리곤들이 만나는 꼭지점의 수가 상대적으로 많게 된다. 따라서, 폴리곤들이 만나는 꼭지점의 개수가 확연히 줄어드는 지점의 좌표를 구함으로써 경계면 점의 좌표를 구할 수 있고(S431), 각각 구한 경계면 좌표를 선으로 연결(S432)하여 실제로 경작이 수행되는 농경지와 경작이 수행되지 않는 길, 논두렁, 밭두렁 등과의 경계면을 파악할 수 있다. 이때, 농작물의 생장이 크게 이루어지면 잎사귀가 많아지는 등 폴리곤 밀도가 더 조밀해지므로 더 쉽게 경계면 파악이 가능하다.Specifically, as shown in FIGS. 4 and 5 , if you look at an image in which polygon rendering is performed based on an aerial photographed image, in the case of agricultural land, which is a space where crops are actually grown, a road between farmland, which is a space where crops are not grown, a rice paddy field , the density of polygons is higher than that of the field head. That is, in the case of agricultural land, the number of polygons within a certain area is larger than that of roads, paddy fields, and the like, and accordingly, the number of vertices where each polygon meets is relatively large. Therefore, the coordinates of the boundary point can be obtained by obtaining the coordinates of the point where the number of vertices where polygons meet is significantly reduced (S431), and the obtained boundary surface coordinates are connected with a line (S432), so that the farmland and tillage where cultivation is actually performed It is possible to grasp the boundary between roads that are not carried out, paddy fields, and fields. At this time, if the growth of crops is large, the polygon density becomes denser, such as the number of leaves, so that the boundary surface can be more easily identified.

또한, 도 6에 도시된 바와 같이 농경지와 길, 논두렁, 밭두렁 등과의 경계면은 폴리곤을 구성하는 선들의 각도가 거의 180도에 가까운 것을 알 수 있으며 이를 활용하여 경계면을 더욱 정확하게 파악할 수 있다. 이때, 상기와 같은 폴리곤 렌더링 이미지를 활용한 경계선 파악 과정에서 라이다(LiDAR, Light Detection And Ranging) 장치를 통해 측정된 농경지의 고도 정보를 부가적인 데이터로 사용할 수 있으며, 이러한 고도 정보를 폴리곤 밀도 정보와 비교 분석함으로써 더욱 정확하게 농경지의 경계면을 파악할 수 있다. 예를 들어, 논두렁의 고도가 논, 밭 등의 고도보다 높기 때문에 라이다 측정 데이터로 논두렁과 논, 밭 등의 경계 구분이 가능하다.In addition, as shown in FIG. 6 , it can be seen that the angle of the lines constituting the polygon is close to 180 degrees at the boundary between farmland and the road, paddy field, and field, and the boundary surface can be more accurately identified by using this. At this time, in the process of determining the boundary line using the polygon rendering image as described above, the altitude information of the farmland measured through the LiDAR (Light Detection And Ranging) device can be used as additional data, and this altitude information is used as polygon density information. By comparing and analyzing with For example, since the altitude of the paddy field is higher than that of the paddy field, it is possible to distinguish the boundary between the paddy field and the paddy field using the lidar measurement data.

이후, 상기와 같이 경계면이 파악되어 정리된 전자지도를 GPS 또는 GLONASS 좌표와 연동하여 지상좌표계로 변환(S433)한 후 로봇 농기계(300)로부터 수신된 토양의 각종 상태 정보를 바탕으로 작물의 종류를 변별하여 실제 경작 가능 공간을 파악하여 경작지도를 완성(S434)한다. 구체적으로, 운용서버(100)의 데이터베이스(140)는 농경지의 폴리곤 밀도 정보와 로봇 농기계(300)로부터 수신된 자갈, 모래 및 미사의 비율, 토양의 수분량, 산도 등을 포함하는 토양의 각종 상태 정보를 누적하여 저장하고 있으며, 딥러닝 기반의 인공지능 경작지도 생성부(120)는 데이터베이스(140)에 누적된 정보를 바탕으로 한 반복 학습을 통해 폴리곤의 밀도 범위에 따른 농작물의 종류를 매칭시킴으로써(예를 들어 해당 농경지의 단위 면적당 폴리곤의 개수가 30~50일 때에는 감자, 해당 농경지의 단위 면적당 폴리곤의 개수가 50~100일 때에는 벼 등으로 분류) 해당 농경지에 실제로 경작된 농작물의 종류를 파악할 수 있다. 즉, 로봇 농기계(300)로부터 수신된 자갈, 모래 및 미사의 비율, 토양의 수분량, 산도 등을 포함하는 토양의 각종 상태 정보를 통해 해당 농경지에 경작하기 적합한 농작물을 파악할 수 있으며, 이렇게 파악된 농작물을 해당 농경지의 폴리곤 밀도 정보와 매칭 하는 과정을 반복하고, 데이터를 누적하여 패턴을 학습함으로써 폴리곤 밀도 범위에 따른 농작물의 종류를 변별할 수 있게 되는 것이다.After that, the electronic map, in which the boundary surface is identified and organized as described above, is converted into a ground coordinate system by linking with GPS or GLONASS coordinates (S433), and the type of crop is determined based on various state information of the soil received from the robot agricultural machine 300 Completing the cultivation map by identifying the actual arable space by discrimination (S434). Specifically, the database 140 of the operation server 100 includes polygon density information of farmland and the ratio of gravel, sand and silt received from the robot agricultural machine 300, moisture content of the soil, acidity, and the like, various state information of the soil. is accumulated and stored, and the deep learning-based artificial intelligence cultivation map generation unit 120 matches the types of crops according to the density range of polygons through repeated learning based on the information accumulated in the database 140 ( For example, if the number of polygons per unit area of the farmland is 30-50, it is classified as potato, if the number of polygons per unit area of the farmland is 50-100, it is classified as rice, etc.) have. That is, crops suitable for cultivation in the corresponding farmland can be identified through various state information of the soil including the ratio of gravel, sand and silt, the moisture content of the soil, acidity, etc. received from the robot agricultural machine 300 , and the crops identified in this way By repeating the process of matching with the polygon density information of the farmland, accumulating data and learning the pattern, it becomes possible to discriminate the types of crops according to the polygon density range.

또한, 이러한 농작물들은 종류별로 각각의 농작물 간의 경작 간격이 모두 다르기 때문에(예를 들어 벼는 서로 간격이 가깝도록 경작되고 감자는 벼에 비해 더 넓은 간격으로 경작됨) 도 7에 도시된 바와 같이 인공지능 경작지도 생성부(120)를 통해 파악된 농작물의 종류에 따라 해당 농경지에서 실제로 경작될 수 있는 공간을 파악할 수 있다. 도 7을 참고하면, 1번은 A와 B 농경지 간의 간격이며, 이 간격은 길이나 논두렁, 밭두렁이 될 수 있고, 2번은 A 농경지 내에서 경작될 수 없는 공간, 즉 로봇 농기계(300)가 접근할 수 없는 공간이 된다. 즉, 각각의 농작물 마다 경작 간격이 다르기 때문에 일정 면적 내에 경작할 수 있는 농작물의 수가 서로 다르며 또한 로봇 농기계(300)가 길이나 논두렁, 밭두렁을 무너뜨리는 것을 방지하기 위해 길이나 논두렁, 밭두렁에 인접한 일정 면적은 경작을 할 수 없는 여유 공간이 되어야 한다. 따라서, 경작물의 종류가 파악되면 해당 경작물의 경작 간격이 파악되기 때문에 이를 바탕으로 농경지 내에서 해당 경작물을 실제로 경작할 수 있는 공간, 즉, 길이나 논두렁, 밭두렁에 인접한 여유 면적을 제외한 나머지 공간을 파악할 수 있는 것이다.In addition, since the cultivation interval between each crop is different for each type of these crops (for example, rice is cultivated to be close to each other and potatoes are cultivated to be more widely spaced compared to rice), as shown in FIG. 7 , artificial According to the types of crops identified through the intelligent cultivation map generation unit 120 , it is possible to determine a space that can be actually cultivated in the corresponding farmland. Referring to FIG. 7, No. 1 is the interval between farmland A and B, and this interval can be a length, paddy field, or field head, and No. 2 is a space that cannot be cultivated in farmland A, that is, the robot farm machine 300 can access it. It becomes an impossible space. That is, since the cultivation interval is different for each crop, the number of crops that can be cultivated within a certain area is different from each other, and in order to prevent the robot agricultural machine 300 from collapsing the road, paddy field, or paddy field, a certain distance adjacent to the road, paddy field, or paddy field The area should be free space that cannot be cultivated. Therefore, when the type of crop is identified, the cultivation interval of the crop is determined. Based on this, the space in which the crop can be actually cultivated, that is, the space remaining except for the free area adjacent to the length, paddy field, and field head, can be determined based on this. it can be

이에 더하여, 해당 농경지 내에서 농경지의 토양 상태 정보를 바탕으로 서로 다른 경작물을 경작하기 위한 공간을 분리하여 파악하는 것도 가능하다.(예를 들어 A공간은 벼농사를 목적으로 하는 공간, A`공간은 보리 경작을 위한 공간)In addition, it is possible to identify and separate the spaces for cultivating different crops based on the soil condition information of the farmland within the relevant farmland. (For example, A space is for rice cultivation, space for barley cultivation)

한편, 상기와 같이 생성되는 경작지도는 로봇 농기계(300)가 경작을 하기 전에 최신 측량 정보를 우선으로 하여 주기적으로 업데이트 되도록 한다.On the other hand, the cultivation map generated as described above is periodically updated by giving priority to the latest survey information before the robot agricultural machine 300 performs cultivation.

이상에서 상세히 설명한 바와 같이 본 발명에 따르면 항공 촬영 이미지를 이용하여 폴리곤 렌더링을 수행한 후 폴리곤의 밀도 차이를 통해 경작지 간의 경계면을 정확히 파악한 경작지도를 생성한 후 로봇 농기계에 전송함으로써 로봇 농기계를 통해 정확한 위치에 농작물을 경작하는 것이 가능한 효과가 있다.As described in detail above, according to the present invention, after polygon rendering is performed using an aerial photographed image, a cultivated map is created that accurately grasps the boundary between cultivated fields through the difference in density of polygons, and then transmitted to the robot agricultural machinery. Cultivating crops on site has a possible effect.

또한, 로봇 농기계의 센서부에서 측정된 각종 토양 관련 정보와 폴리곤의 밀도 정보를 누적하여 저장하고, 딥러닝 기반의 인공지능 경작지도 생성부에서 상기 저장된 정보를 바탕으로 폴리곤의 밀도 범위에 따른 농작물의 종류를 매칭시킴으로써 농작물의 종류를 파악하고, 농작물의 종류에 따른 실제 경작 가능 공간을 정확하게 파악하여 경작 지도를 생성한 후 로봇 농기계에 제공함으로써 로봇 농기계의 경작 작업 시 경작지 사이의 논두렁, 밭두렁이 무너지는 것을 방지하고 효율적으로 경작 작업이 이루어지도록 할 수 있는 효과가 있다.In addition, various soil-related information and polygon density information measured by the sensor unit of the robot agricultural machine are accumulated and stored, and based on the stored information in the deep learning-based artificial intelligence cultivation map generation unit, crops according to the density range of polygons By matching the types, the types of crops are identified, and the actual arable space according to the types of crops is accurately identified to generate a cultivation map, and then provided to the robot agricultural machines. There is an effect that can prevent and allow efficient tillage work.

상기한 본 발명의 바람직한 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대해 통상의 지식을 가진 당업자라면, 본 발명의 사상과 범위 안에서 다양한 수정, 변경 및 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 본 발명의 특허청구 범위에 속하는 것으로 보아야 할 것이다.The above-described preferred embodiments of the present invention have been disclosed for the purpose of illustration, and those skilled in the art with common knowledge about the present invention will be able to make various modifications, changes and additions within the spirit and scope of the present invention, such modifications, changes and additions should be considered to fall within the scope of the claims of the present invention.

100 : 운용서버
110 : 통신처리부
120 : 인공지능 경작지도 생성부
130 : 데이터처리부
140 : 데이터베이스
200 : 무인드론
210 : 통신부
220 : 촬영부
230 : 제어부
300 : 로봇 농기계
310 : 통신부
320 : 제어부
330 : 센서부
340 : 저장부
100: operation server
110: communication processing unit
120: artificial intelligence cultivation map generation unit
130: data processing unit
140 : database
200: unmanned drone
210: communication department
220: filming unit
230: control unit
300: robot farm machine
310: communication department
320: control unit
330: sensor unit
340: storage

Claims (5)

경작지도를 생성하기 위한 항공 촬영을 수행하는 무인드론;
상기 무인드론으로부터 전송 받은 항공 촬영 이미지를 이용하여 경작지도를 생성하는 운용서버; 및
상기 운용서버로부터 전송 받은 경작지도를 바탕으로 농경지에 작물을 경작하는 로봇 농기계;를 포함하는 것을 특징으로 하는 인공지능 기반 농업 로봇용 농경지 경작지도 생성 시스템.
an unmanned drone that performs aerial photography to create a cultivation map;
an operation server for generating a cultivation map using the aerial photographed image received from the unmanned drone; and
A farmland cultivation map generation system for artificial intelligence-based agricultural robots, comprising: a robot farm machine that cultivates crops on farmland based on the cultivation map received from the operation server.
제1항에 있어서,
상기 운용서버는,
상기 무인드론 및 로봇 농기계와 정보 송수신을 위한 통신채널을 연결하기 위해 마련되는 통신처리부;
상기 무인드론으로부터 전송 받은 항공 촬영 이미지를 이용하여 폴리곤 렌더링을 수행한 후 농경지의 경계선을 파악하여 경작지도를 생성하고, 생성된 경작지도를 상기 로봇 농기계로 제공하기 위해 마련되는 인공지능 경작지도 생성부;
생성된 경작지도 데이터를 상기 로봇 농기계로 전송할 수 있는 전송 표준 포맷으로 변환하기 위해 마련되는 데이터 처리부; 및
경작지도 데이터와 상기 로봇 농기계로부터 수신된 토양 상태 정보를 저장하기 위해 마련되는 데이터베이스;를 포함하며,
상기 인공지능 경작지도 생성부는 딥러닝 기반의 인공지능으로 구성되어 상기 로봇 농기계로부터 전송된 토양의 각종 상태 정보와 폴리곤의 밀도 정보를 매칭 하여 농경지에 경작될 농작물의 종류를 자동으로 파악할 수 있는 것을 특징으로 하는 인공지능 기반 농업 로봇용 농경지 경작지도 생성 시스템.
According to claim 1,
The operating server,
a communication processing unit provided to connect a communication channel for transmitting and receiving information with the unmanned drone and the robot agricultural machine;
After performing polygon rendering using the aerial photographed image received from the unmanned drone, an artificial intelligence cultivation map generation unit provided to identify the boundaries of farmland to generate a cultivation map, and to provide the generated cultivation map to the robot farming machine ;
a data processing unit provided to convert the generated cultivation map data into a transmission standard format that can be transmitted to the robot agricultural machine; and
Includes; a database provided to store the cultivation map data and the soil condition information received from the robot agricultural machine;
The artificial intelligence cultivation map generation unit is composed of deep learning-based artificial intelligence and can automatically identify the types of crops to be cultivated on the farmland by matching the various state information of the soil transmitted from the robot farming machine and the density information of the polygons. An artificial intelligence-based farmland cultivation map generation system for agricultural robots.
제2항에 있어서,
상기 로봇 농기계는,
상기 운용서버와 정보 송수신을 위한 통신 채널을 연결하기 위해 마련되는 통신부;
상기 로봇 농기계의 각 구성을 제어하기 위해 마련되는 제어부;
상기 로봇 농기계의 경작 과정에서 해당 토양에 관한 각종 상태 정보를 측정하기 위해 마련되는 센서부; 및
상기 운용서버로부터 전송받은 경작지도 데이터를 저장하기 위해 마련되는 저장부;를 포함하는 것을 특징으로 하는 인공지능 기반 농업 로봇용 농경지 경작지도 생성 시스템.
3. The method of claim 2,
The robot agricultural machine,
a communication unit provided to connect the operation server and a communication channel for transmitting and receiving information;
a control unit provided to control each configuration of the robot agricultural machine;
a sensor unit provided to measure various state information about the soil in the cultivation process of the robot agricultural machine; and
and a storage unit provided to store the cultivation map data received from the operation server.
무인드론을 이용하여 경작을 하기 위한 농경지의 항공 촬영을 수행하는 (a)단계;
상기 무인드론이 항공 촬영 이미지를 운용서버의 인공지능 경작지도 생성부로 전송하는 (b)단계;
상기 인공지능 경작지도 생성부에서 상기 무인드론으로부터 전송 받은 항공 촬영 이미지를 이용하여 폴리곤 렌더링을 수행한 후 농경지 간의 경계면을 파악하여 경작지도를 생성하는 (c)단계;
생성된 경작지도를 상기 운용서버의 데이터베이스에 저장함과 동시에 상기 운용서버의 데이터 처리부에서 생성된 경작지도 데이터를 로봇 농기계로 전송할 수 있는 전송 표준 포맷으로 변환하여 상기 로봇 농기계로 전송하는 (d)단계;
상기 로봇 농기계가 전송받은 경작지도를 기반으로 농경지에 경작 활동을 함과 동시에 상기 로봇 농기계의 센서부를 통해 해당 농경지 토양의 각종 상태 정보를 수집하는 (e)단계; 및
상기 로봇 농기계의 센서부를 통해 수집된 농경지 토양의 각종 상태 정보를 상기 운용서버로 전송하는 (f)단계;를 포함하는 것을 특징으로 하는 인공지능 기반 농업 로봇용 농경지 경작지도 생성 방법.
(a) performing aerial photography of farmland for cultivation using an unmanned drone;
(b) transmitting, by the unmanned drone, an aerial photographed image to an artificial intelligence cultivation map generator of an operation server;
(c) generating a cultivation map by performing polygon rendering by the artificial intelligence cultivation map generator using the aerial photographed image transmitted from the unmanned drone, and then identifying the boundary between farmland;
(d) storing the generated cultivation map in the database of the operation server and at the same time converting the cultivation map data generated by the data processing unit of the operation server into a transmission standard format that can be transmitted to the robot agricultural machine and transmitting it to the robot agricultural machine;
(e) collecting various state information of the soil of the farmland through the sensor unit of the robot farm machine while performing cultivation activities on the farmland based on the farm map received by the robot farm machine; and
(f) transmitting the various state information of the farmland soil collected through the sensor unit of the robot farm machine to the operation server;
제4항에 있어서,
상기 운용서버의 인공지능 경작지도 생성부를 통해 수행되는 상기 (c)단계는,
폴리곤 렌더링이 수행된 이미지에서 각각의 폴리곤이 만나는 꼭지점의 개수를 이용하여 경계면 점의 좌표를 파악 하는 단계;
각각의 경계면 점을 선으로 연결하여 정리하는 단계;
GPS 또는 GLONASS 좌표와 연동하여 지상좌표계로 변환하는 단계; 및
상기 로봇 농기계로부터 수신된 토양의 각종 상태 정보와 폴리곤의 밀도 정보를 매칭 하여 농경지에 경작될 농작물의 종류를 변별하여 농경지에서 실제 경작 가능한 공간을 파악하는 단계;를 포함하는 것을 특징으로 하는 인공지능 기반 농업 로봇용 농경지 경작지도 생성 방법.
5. The method of claim 4,
The step (c) performed through the artificial intelligence cultivation map generation unit of the operation server is,
determining the coordinates of the boundary point using the number of vertices where each polygon meets in the polygon-rendered image;
arranging by connecting each boundary point with a line;
converting to a terrestrial coordinate system in conjunction with GPS or GLONASS coordinates; and
Matching the various state information of the soil received from the robot farming machine and the density information of polygons to discriminate the types of crops to be cultivated on the farmland to identify the actual arable space in the farmland; How to create a farmland cultivation map for agricultural robots.
KR1020200076978A 2020-06-24 2020-06-24 System and method for generating farming map of agricultural robot based on artificial intelligence KR102371433B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200076978A KR102371433B1 (en) 2020-06-24 2020-06-24 System and method for generating farming map of agricultural robot based on artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200076978A KR102371433B1 (en) 2020-06-24 2020-06-24 System and method for generating farming map of agricultural robot based on artificial intelligence

Publications (2)

Publication Number Publication Date
KR20210158538A true KR20210158538A (en) 2021-12-31
KR102371433B1 KR102371433B1 (en) 2022-03-07

Family

ID=79177730

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200076978A KR102371433B1 (en) 2020-06-24 2020-06-24 System and method for generating farming map of agricultural robot based on artificial intelligence

Country Status (1)

Country Link
KR (1) KR102371433B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018029517A (en) * 2016-08-24 2018-03-01 シャープ株式会社 Crop cultivation support system and soil improvement device
WO2018178468A1 (en) * 2017-03-31 2018-10-04 Hemav Technology, S.L. Method for the treatment of crops
JP2018164420A (en) * 2017-03-28 2018-10-25 井関農機株式会社 Work management system of work vehicle
KR102053582B1 (en) * 2019-05-28 2019-12-06 (주) 지오아이티 Method of ground coverage classification by using image pattern learning based on deep learning

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018029517A (en) * 2016-08-24 2018-03-01 シャープ株式会社 Crop cultivation support system and soil improvement device
JP2018164420A (en) * 2017-03-28 2018-10-25 井関農機株式会社 Work management system of work vehicle
WO2018178468A1 (en) * 2017-03-31 2018-10-04 Hemav Technology, S.L. Method for the treatment of crops
KR102053582B1 (en) * 2019-05-28 2019-12-06 (주) 지오아이티 Method of ground coverage classification by using image pattern learning based on deep learning

Also Published As

Publication number Publication date
KR102371433B1 (en) 2022-03-07

Similar Documents

Publication Publication Date Title
CN111526710B (en) Generating a digital farming map
US11765542B2 (en) Hybrid vision system for crop land navigation
US9076105B2 (en) Automated plant problem resolution
Nørremark et al. Evaluation of an autonomous GPS-based system for intra-row weed control by assessing the tilled area
JP2021516060A (en) Plant cultivation data measurement method, work route planning method and equipment, system
WO2013088567A1 (en) Calculation method, calculation program and calculation device
US11716985B2 (en) Method for remediating developmentally delayed plants
Reiser et al. Iterative individual plant clustering in maize with assembled 2D LiDAR data
Li et al. A comparative review of the state and advancement of Site-Specific Crop Management in the UK and China
WO2021122962A1 (en) Computer implemented method for providing test design and test instruction data for comparative tests on yield, gross margin, efficacy or vegetation indices for at least two products or different application timings of the same product
CN110622949B (en) Weeding method and device
Negrete Precision agriculture in Mexico; Current status and perspectives
KR102371433B1 (en) System and method for generating farming map of agricultural robot based on artificial intelligence
Goense et al. An information model to describe systems for spatially variable field operations
Kaivosoja Role of spatial data uncertainty in executions of precision farming operations
US12026944B2 (en) Generation of digital cultivation maps
Shahbazi Use of Light Detection and Ranging (LiDAR) to detect and map weeds that grow taller than crops at harvest
Escolà et al. Agricultural Robotic Sensors for Crop and Environmental Modelling
Norzahari et al. Spatially smart wine–testing geospatial technologies for sustainable wine production
JP2019135623A (en) Plant information creation system
Singh et al. Technologies that Work Together for Precision Agriculture
WO2023230186A1 (en) Systems and methods for use in identifying trials in fields
Kutigi et al. BENEFITS OF IMPLEMENTING PRECISION AGRICULTURE TECHNOLOGIES IN NIGERIAN AGRICULTURAL SYSTEM: A REVIEW
Cujbescu et al. Adaptation of phytosanitary treatments correlated with the analysis of vegetation maps obtained through the means of an agricultural drone.
CN117470215A (en) Path planning method based on crop map

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant