KR20210158538A - System and method for generating farming map of agricultural robot based on artificial intelligence - Google Patents
System and method for generating farming map of agricultural robot based on artificial intelligence Download PDFInfo
- Publication number
- KR20210158538A KR20210158538A KR1020200076978A KR20200076978A KR20210158538A KR 20210158538 A KR20210158538 A KR 20210158538A KR 1020200076978 A KR1020200076978 A KR 1020200076978A KR 20200076978 A KR20200076978 A KR 20200076978A KR 20210158538 A KR20210158538 A KR 20210158538A
- Authority
- KR
- South Korea
- Prior art keywords
- cultivation
- robot
- farmland
- map
- artificial intelligence
- Prior art date
Links
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 36
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000009313 farming Methods 0.000 title claims abstract description 13
- 238000009877 rendering Methods 0.000 claims abstract description 18
- 239000002689 soil Substances 0.000 claims description 30
- 238000004891 communication Methods 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 13
- 230000000694 effects Effects 0.000 claims description 9
- 230000005540 biological transmission Effects 0.000 claims description 6
- 238000013135 deep learning Methods 0.000 claims description 6
- 238000003860 storage Methods 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000003971 tillage Methods 0.000 description 6
- 241000209094 Oryza Species 0.000 description 5
- 235000007164 Oryza sativa Nutrition 0.000 description 5
- 235000009566 rice Nutrition 0.000 description 5
- 239000004576 sand Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 244000061456 Solanum tuberosum Species 0.000 description 2
- 235000002595 Solanum tuberosum Nutrition 0.000 description 2
- 238000007792 addition Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 240000005979 Hordeum vulgare Species 0.000 description 1
- 235000007340 Hordeum vulgare Nutrition 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003306 harvesting Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 235000012015 potatoes Nutrition 0.000 description 1
- 238000009331 sowing Methods 0.000 description 1
- 238000009333 weeding Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/003—Maps
- G09B29/004—Map manufacture or repair; Tear or ink or water resistant maps; Long-life maps
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01B—SOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
- A01B69/00—Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
- A01B69/007—Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow
- A01B69/008—Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow automatic
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- B64C2201/127—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
- B64U2101/32—UAVs specially adapted for particular uses or applications for imaging, photography or videography for cartography or topography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Business, Economics & Management (AREA)
- Geometry (AREA)
- Environmental Sciences (AREA)
- Soil Sciences (AREA)
- Mechanical Engineering (AREA)
- Aviation & Aerospace Engineering (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Remote Sensing (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 인공지능 기반 농업 로봇용 농경지 경작지도 생성 시스템 및 방법에 관한 것으로, 더욱 구체적으로는 항공 촬영 이미지를 이용하여 폴리곤 렌더링을 수행한 후 경작지 간의 경계면을 파악하고, 작물을 종류에 따른 실제 경작 가능 공간을 파악하여 경작 지도를 생성한 후 로봇 농기계에 제공함으로써 경작지 간의 경계면 근처의 경작 가능 영역에도 정확하게 경작 작업이 수행되도록 하여 효율적으로 경작 작업이 이루어지도록 할 수 있는 기술에 대한 것이다.The present invention relates to a system and method for generating a farmland cultivation map for an artificial intelligence-based agricultural robot, and more specifically, to perform polygon rendering using an aerial photographed image, then to identify the boundary between farmland and to actually cultivate crops according to the type It is about a technology that can efficiently perform tillage work by identifying the available space, creating a tillage map, and providing it to the robot farm machine so that the tillage work can be performed accurately even in the arable area near the boundary between the cultivated fields.
농업은 우리의 먹거리를 책임지는 매우 중요한 산업분야이다. 농업은 파종이후, 제초, 수확 등 수많은 노동력을 필요로 한다. 과거에는 수작업에 의해 진행되어 많은 노동력을 필요로 하였으나, 점차 기계화되면서 수동의 농기계 조작이 아니라, 스스로 주행해가면서 작업할 수 있는 다양한 농업용 로봇에 대한 기술들이 개발되어 지고 있어 노동력이 많이 절감되었다.Agriculture is a very important industry that is responsible for our food. Agriculture requires a lot of labor after sowing, weeding and harvesting. In the past, it was done manually and required a lot of labor, but as it is gradually mechanized, technologies for various agricultural robots that can work while driving by themselves, rather than manual operation of agricultural machines, are being developed, reducing labor a lot.
이러한 농업용 로봇으로 경작지 내에 농작물을 경작 및 관리하기 위해서는 농업용 로봇을 위한 전자지도(경작지도)가 필요한데, 종래에는 전자지도(경작지도)의 정확성이 떨어져 농업용 로봇이 경작지 간의 경계면 근처의 경작 가능 영역을 경작하지 않는 등 농경지를 정밀한 수준으로 경작하지 못하는 문제점이 있었다.In order to cultivate and manage crops in arable land with these agricultural robots, an electronic map (farming map) for agricultural robots is required. Conventionally, the accuracy of the electronic map (farming map) is low, so that the agricultural robot can use the arable area near the boundary between arable land. There was a problem in that the farmland could not be cultivated at a precise level, such as not tilling.
한편, 농업 로봇용 경작지도에 관한 종래기술은 대한민국등록특허 제10-1374802호 등이 있다.On the other hand, as for the prior art related to the cultivation guidance for agricultural robots, there are Korean Patent Registration No. 10-1374802 and the like.
항공 촬영 이미지를 이용하여 폴리곤 렌더링을 수행한 후 경작지 간의 경계면을 파악하고, 작물을 종류에 따른 실제 경작 가능 공간을 파악하여 경작 지도를 생성한 후 로봇 농기계에 제공함으로써 경작지 간의 경계면 근처의 경작 가능 영역에도 정확하게 경작 작업이 수행되도록 하여 효율적으로 경작 작업이 이루어지도록 할 수 있는 인공지능 기반 농업 로봇용 농경지 경작지도 생성 시스템 및 방법을 제공하는 데 그 목적이 있다.After polygon rendering using aerial photographed images, the boundary between arable land is identified, the actual arable space according to the type of crop is identified, and a arable area near the boundary between arable land is provided to the robot agricultural machine after generating a cultivation map. An object of the present invention is to provide a system and method for generating a farmland cultivation map for an artificial intelligence-based agricultural robot that can efficiently perform cultivation by accurately performing cultivation work in
본 발명이 해결하려는 과제는 전술한 과제로 제한되지 아니하며, 언급되지 아니한 또 다른 기술적 과제들은 후술할 내용으로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above problems, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description.
상기 목적을 달성하기 위한 본 발명에 따른 인공지능 기반 농업 로봇용 농경지 경작지도 생성 시스템은 경작지도를 생성하기 위한 항공 촬영을 수행하는 무인드론; 상기 무인드론으로부터 전송 받은 항공 촬영 이미지를 이용하여 경작지도를 생성하는 운용서버; 및 상기 운용서버로부터 전송 받은 경작지도를 바탕으로 농경지에 작물을 경작하는 로봇 농기계;를 포함하는 것을 특징으로 한다.According to the present invention for achieving the above object, there is provided a system for generating a farmland cultivation map for an artificial intelligence-based agricultural robot, comprising: an unmanned drone that performs aerial photography to generate a cultivation map; an operation server for generating a cultivation map using the aerial photographed image received from the unmanned drone; and a robot agricultural machine that cultivates crops on farmland based on the cultivation map transmitted from the operation server.
이때, 상기 운용서버는,상기 무인드론 및 로봇 농기계와 정보 송수신을 위한 통신채널을 연결하기 위해 마련되는 통신처리부; 상기 무인드론으로부터 전송 받은 항공 촬영 이미지를 이용하여 폴리곤 렌더링을 수행한 후 농경지의 경계선을 파악하여 경작지도를 생성하고, 생성된 경작지도를 상기 로봇 농기계로 제공하기 위해 마련되는 인공지능 경작지도 생성부; 생성된 경작지도 데이터를 상기 로봇 농기계로 전송할 수 있는 전송 표준 포맷으로 변환하기 위해 마련되는 데이터 처리부; 및 경작지도 데이터와 상기 로봇 농기계로부터 수신된 토양 상태 정보를 저장하기 위해 마련되는 데이터베이스;를 포함하며, 상기 인공지능 경작지도 생성부는 딥러닝 기반의 인공지능으로 구성되어 상기 로봇 농기계로부터 전송된 토양의 각종 상태 정보와 폴리곤의 밀도 정보를 매칭 하여 농경지에 경작될 농작물의 종류를 자동으로 파악할 수 있는 것을 특징으로 한다.At this time, the operation server, Communication processing unit provided to connect the communication channel for transmitting and receiving information with the unmanned drone and the robot agricultural machine; After performing polygon rendering using the aerial photographed image received from the unmanned drone, an artificial intelligence cultivation map generation unit provided to identify the boundaries of farmland to generate a cultivation map, and to provide the generated cultivation map to the robot farming machine ; a data processing unit provided to convert the generated cultivation map data into a transmission standard format that can be transmitted to the robot agricultural machine; and a database provided to store the cultivation map data and the soil state information received from the robot agricultural machine, wherein the artificial intelligence cultivation map generation unit is composed of deep learning-based artificial intelligence, the soil transmitted from the robot agricultural machine. It is characterized in that it is possible to automatically identify the type of crops to be cultivated on the farmland by matching various state information and polygon density information.
또한, 상기 로봇 농기계는, 상기 운용서버와 정보 송수신을 위한 통신 채널을 연결하기 위해 마련되는 통신부; 상기 로봇 농기계의 각 구성을 제어하기 위해 마련되는 제어부; 상기 로봇 농기계의 경작 과정에서 해당 토양에 관한 각종 상태 정보를 측정하기 위해 마련되는 센서부; 및 상기 운용서버로부터 전송받은 경작지도 데이터를 저장하기 위해 마련되는 저장부;를 포함하는 것을 특징으로 한다.In addition, the robot agricultural machine, a communication unit provided to connect the operation server and a communication channel for transmitting and receiving information; a control unit provided to control each configuration of the robot agricultural machine; a sensor unit provided to measure various state information about the soil in the cultivation process of the robot agricultural machine; and a storage unit provided to store the cultivation map data received from the operation server.
한편, 상기 목적을 달성하기 위한 본 발명에 따른 인공지능 기반 농업 로봇용 농경지 경작지도 생성 방법은 무인드론을 이용하여 경작을 하기 위한 농경지의 항공 촬영을 수행하는 (a)단계; 상기 무인드론이 항공 촬영 이미지를 운용서버의 인공지능 경작지도 생성부로 전송하는 (b)단계; 상기 인공지능 경작지도 생성부에서 상기 무인드론으로부터 전송 받은 항공 촬영 이미지를 이용하여 폴리곤 렌더링을 수행한 후 농경지 간의 경계면을 파악하여 경작지도를 생성하는 (c)단계; 생성된 경작지도를 상기 운용서버의 데이터베이스에 저장함과 동시에 상기 운용서버의 데이터 처리부에서 생성된 경작지도 데이터를 로봇 농기계로 전송할 수 있는 전송 표준 포맷으로 변환하여 상기 로봇 농기계로 전송하는 (d)단계; 상기 로봇 농기계가 전송받은 경작지도를 기반으로 농경지에 경작 활동을 함과 동시에 상기 로봇 농기계의 센서부를 통해 해당 농경지 토양의 각종 상태 정보를 수집하는 (e)단계; 및 상기 로봇 농기계의 센서부를 통해 수집된 농경지 토양의 각종 상태 정보를 상기 운용서버로 전송하는 (f)단계;를 포함하는 것을 특징으로 한다.On the other hand, according to the present invention for achieving the above object, there is provided a method for generating a farmland cultivation map for an artificial intelligence-based agricultural robot, comprising: (a) performing aerial photography of farmland for cultivation using an unmanned drone; (b) transmitting, by the unmanned drone, an aerial photographed image to an artificial intelligence cultivation map generator of an operation server; (c) generating a cultivation map by performing polygon rendering by the artificial intelligence cultivation map generator using the aerial photographed image transmitted from the unmanned drone, and then identifying the boundary between farmland; (d) storing the generated cultivation map in the database of the operation server and at the same time converting the cultivation map data generated by the data processing unit of the operation server into a transmission standard format that can be transmitted to the robot agricultural machine and transmitting it to the robot agricultural machine; (e) performing cultivation activities on farmland based on the farm map received by the robot farm machine and simultaneously collecting various state information of the soil in the farmland through the sensor unit of the robot farm machine; and (f) transmitting various state information of farmland soil collected through the sensor unit of the robot agricultural machine to the operation server.
이때, 상기 운용서버의 인공지능 경작지도 생성부를 통해 수행되는 상기 (c)단계는, 폴리곤 렌더링이 수행된 이미지에서 각각의 폴리곤이 만나는 꼭지점의 개수를 이용하여 경계면 점의 좌표를 파악 하는 단계; 각각의 경계면 점을 선으로 연결하여 정리하는 단계; GPS 또는 GLONASS 좌표와 연동하여 지상좌표계로 변환하는 단계; 및 상기 로봇 농기계로부터 수신된 토양의 각종 상태 정보와 폴리곤의 밀도 정보를 매칭 하여 농경지에 경작될 농작물의 종류를 변별하여 농경지에서 실제 경작 가능한 공간을 파악하는 단계;를 포함하는 것을 특징으로 한다.At this time, the step (c) performed through the artificial intelligence cultivation map generation unit of the operation server includes: identifying the coordinates of the boundary point using the number of vertices where each polygon meets in the polygon-rendered image; arranging by connecting each boundary point with a line; converting to a terrestrial coordinate system in conjunction with GPS or GLONASS coordinates; and matching the various state information of the soil received from the robot agricultural machine and the density information of polygons to discriminate the types of crops to be cultivated on the farmland to determine the actual arable space in the farmland.
본 발명에 따르면 항공 촬영 이미지를 이용하여 폴리곤 렌더링을 수행한 후 폴리곤의 밀도 차이를 통해 경작지 간의 경계면을 정확히 파악한 경작지도를 생성한 후 로봇 농기계에 전송함으로써 로봇 농기계를 통해 정확한 위치에 농작물을 경작하는 것이 가능한 효과가 있다.According to the present invention, after performing polygon rendering using an aerial photographed image, a cultivated map that accurately grasps the boundary between cultivated fields through the difference in density of polygons is generated, and then transmitted to the robot agricultural machine to cultivate crops at the correct location through the robot agricultural machine. There is a possible effect.
또한, 로봇 농기계의 센서부에서 측정된 각종 토양 상태 정보와 폴리곤의 밀도 정보를 누적하여 저장하고, 딥러닝 기반의 인공지능 경작지도 생성부에서 저장된 정보를 바탕으로 폴리곤의 밀도 범위에 따른 농작물의 종류를 매칭시킴으로써 농작물의 종류를 파악하고, 농작물의 종류에 따른 실제 경작 가능 공간을 정확하게 파악하여 경작 지도를 생성한 후 로봇 농기계에 제공함으로써 로봇 농기계의 경작 작업 시 경작지 사이의 논두렁, 밭두렁이 무너지는 것을 방지하고 효율적으로 경작 작업이 이루어지도록 할 수 있는 효과가 있다.In addition, various soil state information and polygon density information measured by the sensor unit of the robot agricultural machine are accumulated and stored, and the types of crops according to the density range of polygons are based on the information stored in the deep learning-based artificial intelligence cultivation map generation unit. It identifies the types of crops by matching them, and accurately identifies the actual arable space according to the types of crops, creates a cultivation map, and provides it to the robotic agricultural machinery to prevent the collapse of paddy fields and paddy fields between cultivated fields during the cultivating operation of the robotic agricultural machinery. It has the effect of preventing and allowing efficient tillage work.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.
도 1은 본 발명의 실시예에 따른 인공지능 기반 농업 로봇용 농경지 경작지도 생성 시스템의 구성을 설명하기 위한 블록도이다.
도 2 및 도 3은 본 발명의 실시예에 따른 인공지능 기반 농업 로봇용 농경지 경작지도 생성 방법을 통한 경작지도 생성 과정을 설명하기 위한 흐름도이다.
도 4는 무인드론을 통해 촬영된 항공 촬영 이미지를 보여주는 도면이다.
도 5는 항공 촬영 이미지를 바탕으로 폴리곤 렌더링을 수행한 이미지를 보여주는 도면이다.
도 6은 폴리곤 렌더링이 수행된 이미지에서 경계면을 확대한 도면이다.
도 7은 경작지에서 실제 경작이 가능한 공간을 파악하는 과정을 설명하기 위한 도면이다.1 is a block diagram for explaining the configuration of a system for generating a farmland cultivation map for an artificial intelligence-based agricultural robot according to an embodiment of the present invention.
2 and 3 are flowcharts for explaining a process of generating a farmland map through the method for generating a farmland cultivation map for an artificial intelligence-based agricultural robot according to an embodiment of the present invention.
4 is a view showing an aerial photographed image taken through an unmanned drone.
5 is a diagram illustrating an image obtained by performing polygon rendering based on an aerial photographed image.
6 is an enlarged view of a boundary surface in an image on which polygon rendering is performed.
7 is a view for explaining a process of identifying a space that can actually be cultivated in arable land.
이하에서는 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 설명한다. 다만 발명의 요지와 무관한 일부 구성은 생략 또는 압축할 것이나, 생략된 구성이라고 하여 반드시 본 발명에서 필요가 없는 구성은 아니며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 결합되어 사용될 수 있다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. However, some components irrelevant to the gist of the present invention will be omitted or compressed, but the omitted configuration is not necessarily a configuration that is not necessary in the present invention, and will be used in combination by those of ordinary skill in the art to which the present invention belongs. can
더불어 이하에서 설명하게 되는 각 구성부와 서버 및 시스템은 반드시 각각의 기능을 수행하는 독립적인 구성부나 서버로 이루어져야 하는 것은 아니며, 하나 이상의 프로그램 또는 하나 이상의 서버 또는 하나 이상의 시스템의 집합으로 구현되거나 일부가 공유될 수도 있음을 밝히는 바이다.In addition, each component, server, and system to be described below does not necessarily consist of an independent component or server that performs each function, and may be implemented as a set of one or more programs, one or more servers, or one or more systems, or a part Note that it may be shared.
도 1은 본 발명의 실시예에 따른 인공지능 기반 농업 로봇용 농경지 경작지도 생성 시스템의 구성을 설명하기 위한 블록도이고, 도 2 및 도 3은 본 발명의 실시예에 따른 인공지능 기반 농업 로봇용 농경지 경작지도 생성 방법을 통한 경작지도 생성 과정을 설명하기 위한 흐름도이고, 도 4는 무인드론을 통해 촬영된 항공 촬영 이미지를 보여주는 도면이고, 도 5는 항공 촬영 이미지를 바탕으로 폴리곤 렌더링을 수행한 이미지를 보여주는 도면이고, 도 6은 폴리곤 렌더링이 수행된 이미지에서 경계면을 확대한 도면이고, 도 7은 경작지에서 실제 경작이 가능한 공간을 파악하는 과정을 설명하기 위한 도면이다.1 is a block diagram for explaining the configuration of a system for generating a farmland cultivation map for an artificial intelligence-based agricultural robot according to an embodiment of the present invention, and FIGS. 2 and 3 are for an artificial intelligence-based agricultural robot according to an embodiment of the present invention It is a flowchart for explaining the process of generating a cultivation map through the method of generating a farmland cultivation map, FIG. 4 is a diagram showing an aerial photographed image photographed through an unmanned drone, and FIG. 5 is an image obtained by performing polygon rendering based on the aerial photographed image , FIG. 6 is an enlarged view of a boundary surface in an image on which polygon rendering is performed, and FIG. 7 is a view for explaining a process of identifying an actual cultivateable space in arable land.
도 1에 도시된 바와 같이 본 발명의 실시예에 따른 인공지능 기반 농업 로봇용 농경지 경작지도 생성 시스템은 운용서버(100), 무인드론(200) 및 로봇 농기계(300)를 포함하여 구성된다.As shown in FIG. 1 , the system for generating a farmland cultivation map for an artificial intelligence-based agricultural robot according to an embodiment of the present invention is configured to include an
운용서버(100)는 통신처리부(110), 인공지능 경작지도 생성부(120), 데이터 처리부(120) 및 데이터베이스(140)를 포함한다.The
통신처리부(110)는 무인드론(200) 및 로봇 농기계(300)와 정보 송수신을 위한 통신채널을 연결하기 위해 마련된다.The
인공지능 경작지도 생성부(120)는 후술할 무인드론(200)으로부터 수신 받은 항공 촬영 이미지를 이용하여 폴리곤 렌더링을 수행한 후 논, 밭 등의 농경지의 경계선을 파악하여 경작지도를 생성한 후 후술할 로봇 농기계(300)로 제공하기 위해 마련된다. 이러한 인공지능 경작지도 생성부(120)는 딥러닝 기반의 인공지능으로 구성되어 후술할 로봇 농기계(300)로부터 수신된 자갈, 모래 및 미사의 비율, 토양의 수분량, 산도 등을 포함하는 토양의 각종 상태 정보와 폴리곤의 밀도 정보를 매칭하여 농경지에 실제로 경작된 농작물의 종류를 자동으로 파악할 수 있다. 또한, 파악된 농작물의 종류에 따라 해당 농경지에 실제로 경작이 이루어질 수 있는 공간을 파악할 수 있다. 이에 대한 구체적인 설명은 후술하도록 한다.The artificial intelligence cultivation
데이터 처리부(130)는 생성된 경작지도 데이터를 후술할 로봇 농기계(300)로 전송할 수 있는 전송 표준 포맷으로 변환하기 위해 마련된다.The
데이터베이스(140)는 농경지 간의 경계선, 인접 농경지와의 거리, 농경지의 폴리곤 밀도, 농경지 내부에서 실제 경작 가능한 공간 정보 등을 포함하는 경작지도 데이터와 후술할 로봇 농기계(300)로부터 수신된 토양 상태 정보(자갈, 모래 및 미사의 비율, 토양의 수분량, 산도 등)를 저장하기 위해 마련된다.The
무인드론(200)은 경작지도를 생성하기 위한 항공 촬영을 수행하는 역할을 하며, 통신부(210), 촬영부(220) 및 제어부(230)를 포함하여 구성된다.The
통신부(210)는 운용서버(100)와 정보 송수신을 위한 통신 채널을 연결하고, 사용자가 원격 컨트롤러(미도시)를 통해 입력하는 무인드론(200) 제어 신호를 수신하기 위해 마련된다.The
촬영부(220)는 경작지도 생성을 위한 항공 촬영을 수행하기 위해 마련된다.The photographing
제어부(230)는 무인드론(200)의 원격 컨트롤러(미도시)로부터 수신되는 제어 신호에 따라 무인드론(200)의 각 구성을 제어하기 위해 마련된다.The
한편, 도면에는 도시되지 않았지만 무인드론(200)에 라이다(LiDAR, Light Detection And Ranging) 장치를 별도로 장착하여 농경지의 고도를 측정하여 운용서버(100)에 전송할 수 있으며, 구동을 위한 전력을 제공하기 위한 배터리(미도시)가 별도로 구비될 수 있다.On the other hand, although not shown in the drawing, a LiDAR (Light Detection And Ranging) device is separately mounted on the
한편 운용서버(100)와 연계되는 로봇 농기계(300)는 운용서버(100)로부터 전송받은 경작지도 데이터를 바탕으로 농경지에 작물을 경작하는 역할을 하며, 이러한 로봇 농기계(300)는 통신부(310), 제어부(320), 센서부(330) 및 저장부(340)를 포함한다.On the other hand, the robot
통신부(310)는 운용서버(100)와 정보 송수신을 위한 통신 채널을 연결하기 위해 마련된다.The
제어부(320)는 로봇 농기계(300)의 각 구성을 제어하기 위해 마련된다.The
센서부(330)는 로봇 농기계(300)의 경작 과정에서 해당 토양에 관한 각종 상태 정보(자갈, 모래 및 미사의 비율, 토양의 수분량, 산도 등)를 측정하기 위해 마련되며, 센서부(330)에서 측정된 토양에 관한 정보는 이후 통신부(310)를 통해 운용서버(100)에 전송된다.The
저장부(340)는 운용서버(100)로부터 전송받은 경작지도 데이터를 저장하기 위해 마련된다.The
이하에서는 도 2 내지 도 7을 통해 도 1에 도시된 인공지능 기반 농업 로봇용 농경지 경작지도 생성 시스템을 통한 경작지도 생성 과정에 대하여 설명토록 한다.Hereinafter, a process for generating a cultivation map through the system for generating a farmland cultivation map for an artificial intelligence-based agricultural robot shown in FIG. 1 will be described with reference to FIGS. 2 to 7 .
먼저, 도 2에 도시된 바와 같이 무인드론(200)을 이용하여 경작을 하기 위한 농경지의 항공 촬영을 수행(S400)한다. 이때, 무인드론(200)에 라이다(LiDAR, Light Detection And Ranging) 장치를 별도로 장착하여 농경지의 고도를 측정하는 것도 가능하다.First, as shown in FIG. 2 , aerial photography of farmland for cultivation is performed using the unmanned drone 200 ( S400 ). In this case, it is also possible to measure the altitude of the farmland by separately mounting a LiDAR (Light Detection And Ranging) device to the
무인드론(200)이 항공 촬영 이미지(도 4 참조) 및 농경지의 고도 정보를 운용서버(100)의 인공지능 경작지도 생성부(120)로 전송(S410)하면, 인공지능 경작지도 생성부(120)는 무인드론(200)으로부터 전송 받은 항공 촬영 이미지를 이용하여 도 5에 도시된 바와 같이 폴리곤 렌더링을 수행(S420)한 후, 농경지 간의 경계면을 파악하여 경작지도를 생성(S430)하고, 생성된 경작지도를 데이터베이스(140)에 저장함과 동시에 데이터 처리부(130)에서 생성된 경작지도 데이터를 로봇 농기계(300)로 전송할 수 있는 전송 표준 포맷으로 변환하여 로봇 농기계(300)로 전송(S440)한다. 이후, 로봇 농기계(300)는 전송받은 경작지도를 기반으로 농경지에 경작 활동을 함과 동시에 센서부(330)를 통해 해당 농경지 토양의 각종 정보를 수집(S450)하여 수집된 농경지 토양의 정보를 운용서버(100)로 전송(S460)한다.When the
이때, 상기 농경지 간의 경계면을 파악하여 경작지도를 생성(S430)하는 단계는 도 3에 도시된 바와 같이 폴리곤 렌더링이 수행된 이미지에서 각각의 폴리곤이 만나는 꼭지점의 개수를 이용하여 경계면 점의 좌표를 파악(S431)하는 단계, 각각의 경계면 점을 선으로 연결하여 정리(S432)하는 단계, GPS 또는 GLONASS 좌표와 연동하여 지상좌표계로 변환(S433)하는 단계 및 로봇 농기계(300)로부터 수신된 토양의 각종 상태 정보를 바탕으로 작물의 종류를 변별하여 실제 경작 가능 공간을 파악하여 경작지도를 완성(S434)하는 단계를 포함한다.In this case, the step of generating a cultivation map by identifying the boundary between the farmland (S430) is to determine the coordinates of the boundary point using the number of vertices where each polygon meets in the image on which the polygon rendering is performed, as shown in FIG. 3 . Step (S431), the step of arranging (S432) by connecting each boundary point with a line, the step of converting (S433) to the ground coordinate system in conjunction with GPS or GLONASS coordinates, and various types of soil received from the robot
구체적으로, 도 4 및 도 5에 도시된 바와 같이 항공 촬영 이미지를 바탕으로 폴리곤 렌더링이 수행된 이미지를 보면 농작물이 실제로 재배되는 공간인 농경지의 경우 농작물이 재배되지 않는 공간인 농경지 사이의 길, 논두렁, 밭두렁 등에 비해 폴리곤의 밀도가 높다. 즉, 농경지의 경우 길, 논두렁, 밭두렁 등에 비해 일정 면적 내에 폴리곤의 개수가 더 많으며, 이에 따라 각각의 폴리곤들이 만나는 꼭지점의 수가 상대적으로 많게 된다. 따라서, 폴리곤들이 만나는 꼭지점의 개수가 확연히 줄어드는 지점의 좌표를 구함으로써 경계면 점의 좌표를 구할 수 있고(S431), 각각 구한 경계면 좌표를 선으로 연결(S432)하여 실제로 경작이 수행되는 농경지와 경작이 수행되지 않는 길, 논두렁, 밭두렁 등과의 경계면을 파악할 수 있다. 이때, 농작물의 생장이 크게 이루어지면 잎사귀가 많아지는 등 폴리곤 밀도가 더 조밀해지므로 더 쉽게 경계면 파악이 가능하다.Specifically, as shown in FIGS. 4 and 5 , if you look at an image in which polygon rendering is performed based on an aerial photographed image, in the case of agricultural land, which is a space where crops are actually grown, a road between farmland, which is a space where crops are not grown, a rice paddy field , the density of polygons is higher than that of the field head. That is, in the case of agricultural land, the number of polygons within a certain area is larger than that of roads, paddy fields, and the like, and accordingly, the number of vertices where each polygon meets is relatively large. Therefore, the coordinates of the boundary point can be obtained by obtaining the coordinates of the point where the number of vertices where polygons meet is significantly reduced (S431), and the obtained boundary surface coordinates are connected with a line (S432), so that the farmland and tillage where cultivation is actually performed It is possible to grasp the boundary between roads that are not carried out, paddy fields, and fields. At this time, if the growth of crops is large, the polygon density becomes denser, such as the number of leaves, so that the boundary surface can be more easily identified.
또한, 도 6에 도시된 바와 같이 농경지와 길, 논두렁, 밭두렁 등과의 경계면은 폴리곤을 구성하는 선들의 각도가 거의 180도에 가까운 것을 알 수 있으며 이를 활용하여 경계면을 더욱 정확하게 파악할 수 있다. 이때, 상기와 같은 폴리곤 렌더링 이미지를 활용한 경계선 파악 과정에서 라이다(LiDAR, Light Detection And Ranging) 장치를 통해 측정된 농경지의 고도 정보를 부가적인 데이터로 사용할 수 있으며, 이러한 고도 정보를 폴리곤 밀도 정보와 비교 분석함으로써 더욱 정확하게 농경지의 경계면을 파악할 수 있다. 예를 들어, 논두렁의 고도가 논, 밭 등의 고도보다 높기 때문에 라이다 측정 데이터로 논두렁과 논, 밭 등의 경계 구분이 가능하다.In addition, as shown in FIG. 6 , it can be seen that the angle of the lines constituting the polygon is close to 180 degrees at the boundary between farmland and the road, paddy field, and field, and the boundary surface can be more accurately identified by using this. At this time, in the process of determining the boundary line using the polygon rendering image as described above, the altitude information of the farmland measured through the LiDAR (Light Detection And Ranging) device can be used as additional data, and this altitude information is used as polygon density information. By comparing and analyzing with For example, since the altitude of the paddy field is higher than that of the paddy field, it is possible to distinguish the boundary between the paddy field and the paddy field using the lidar measurement data.
이후, 상기와 같이 경계면이 파악되어 정리된 전자지도를 GPS 또는 GLONASS 좌표와 연동하여 지상좌표계로 변환(S433)한 후 로봇 농기계(300)로부터 수신된 토양의 각종 상태 정보를 바탕으로 작물의 종류를 변별하여 실제 경작 가능 공간을 파악하여 경작지도를 완성(S434)한다. 구체적으로, 운용서버(100)의 데이터베이스(140)는 농경지의 폴리곤 밀도 정보와 로봇 농기계(300)로부터 수신된 자갈, 모래 및 미사의 비율, 토양의 수분량, 산도 등을 포함하는 토양의 각종 상태 정보를 누적하여 저장하고 있으며, 딥러닝 기반의 인공지능 경작지도 생성부(120)는 데이터베이스(140)에 누적된 정보를 바탕으로 한 반복 학습을 통해 폴리곤의 밀도 범위에 따른 농작물의 종류를 매칭시킴으로써(예를 들어 해당 농경지의 단위 면적당 폴리곤의 개수가 30~50일 때에는 감자, 해당 농경지의 단위 면적당 폴리곤의 개수가 50~100일 때에는 벼 등으로 분류) 해당 농경지에 실제로 경작된 농작물의 종류를 파악할 수 있다. 즉, 로봇 농기계(300)로부터 수신된 자갈, 모래 및 미사의 비율, 토양의 수분량, 산도 등을 포함하는 토양의 각종 상태 정보를 통해 해당 농경지에 경작하기 적합한 농작물을 파악할 수 있으며, 이렇게 파악된 농작물을 해당 농경지의 폴리곤 밀도 정보와 매칭 하는 과정을 반복하고, 데이터를 누적하여 패턴을 학습함으로써 폴리곤 밀도 범위에 따른 농작물의 종류를 변별할 수 있게 되는 것이다.After that, the electronic map, in which the boundary surface is identified and organized as described above, is converted into a ground coordinate system by linking with GPS or GLONASS coordinates (S433), and the type of crop is determined based on various state information of the soil received from the robot
또한, 이러한 농작물들은 종류별로 각각의 농작물 간의 경작 간격이 모두 다르기 때문에(예를 들어 벼는 서로 간격이 가깝도록 경작되고 감자는 벼에 비해 더 넓은 간격으로 경작됨) 도 7에 도시된 바와 같이 인공지능 경작지도 생성부(120)를 통해 파악된 농작물의 종류에 따라 해당 농경지에서 실제로 경작될 수 있는 공간을 파악할 수 있다. 도 7을 참고하면, 1번은 A와 B 농경지 간의 간격이며, 이 간격은 길이나 논두렁, 밭두렁이 될 수 있고, 2번은 A 농경지 내에서 경작될 수 없는 공간, 즉 로봇 농기계(300)가 접근할 수 없는 공간이 된다. 즉, 각각의 농작물 마다 경작 간격이 다르기 때문에 일정 면적 내에 경작할 수 있는 농작물의 수가 서로 다르며 또한 로봇 농기계(300)가 길이나 논두렁, 밭두렁을 무너뜨리는 것을 방지하기 위해 길이나 논두렁, 밭두렁에 인접한 일정 면적은 경작을 할 수 없는 여유 공간이 되어야 한다. 따라서, 경작물의 종류가 파악되면 해당 경작물의 경작 간격이 파악되기 때문에 이를 바탕으로 농경지 내에서 해당 경작물을 실제로 경작할 수 있는 공간, 즉, 길이나 논두렁, 밭두렁에 인접한 여유 면적을 제외한 나머지 공간을 파악할 수 있는 것이다.In addition, since the cultivation interval between each crop is different for each type of these crops (for example, rice is cultivated to be close to each other and potatoes are cultivated to be more widely spaced compared to rice), as shown in FIG. 7 , artificial According to the types of crops identified through the intelligent cultivation
이에 더하여, 해당 농경지 내에서 농경지의 토양 상태 정보를 바탕으로 서로 다른 경작물을 경작하기 위한 공간을 분리하여 파악하는 것도 가능하다.(예를 들어 A공간은 벼농사를 목적으로 하는 공간, A`공간은 보리 경작을 위한 공간)In addition, it is possible to identify and separate the spaces for cultivating different crops based on the soil condition information of the farmland within the relevant farmland. (For example, A space is for rice cultivation, space for barley cultivation)
한편, 상기와 같이 생성되는 경작지도는 로봇 농기계(300)가 경작을 하기 전에 최신 측량 정보를 우선으로 하여 주기적으로 업데이트 되도록 한다.On the other hand, the cultivation map generated as described above is periodically updated by giving priority to the latest survey information before the robot
이상에서 상세히 설명한 바와 같이 본 발명에 따르면 항공 촬영 이미지를 이용하여 폴리곤 렌더링을 수행한 후 폴리곤의 밀도 차이를 통해 경작지 간의 경계면을 정확히 파악한 경작지도를 생성한 후 로봇 농기계에 전송함으로써 로봇 농기계를 통해 정확한 위치에 농작물을 경작하는 것이 가능한 효과가 있다.As described in detail above, according to the present invention, after polygon rendering is performed using an aerial photographed image, a cultivated map is created that accurately grasps the boundary between cultivated fields through the difference in density of polygons, and then transmitted to the robot agricultural machinery. Cultivating crops on site has a possible effect.
또한, 로봇 농기계의 센서부에서 측정된 각종 토양 관련 정보와 폴리곤의 밀도 정보를 누적하여 저장하고, 딥러닝 기반의 인공지능 경작지도 생성부에서 상기 저장된 정보를 바탕으로 폴리곤의 밀도 범위에 따른 농작물의 종류를 매칭시킴으로써 농작물의 종류를 파악하고, 농작물의 종류에 따른 실제 경작 가능 공간을 정확하게 파악하여 경작 지도를 생성한 후 로봇 농기계에 제공함으로써 로봇 농기계의 경작 작업 시 경작지 사이의 논두렁, 밭두렁이 무너지는 것을 방지하고 효율적으로 경작 작업이 이루어지도록 할 수 있는 효과가 있다.In addition, various soil-related information and polygon density information measured by the sensor unit of the robot agricultural machine are accumulated and stored, and based on the stored information in the deep learning-based artificial intelligence cultivation map generation unit, crops according to the density range of polygons By matching the types, the types of crops are identified, and the actual arable space according to the types of crops is accurately identified to generate a cultivation map, and then provided to the robot agricultural machines. There is an effect that can prevent and allow efficient tillage work.
상기한 본 발명의 바람직한 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대해 통상의 지식을 가진 당업자라면, 본 발명의 사상과 범위 안에서 다양한 수정, 변경 및 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 본 발명의 특허청구 범위에 속하는 것으로 보아야 할 것이다.The above-described preferred embodiments of the present invention have been disclosed for the purpose of illustration, and those skilled in the art with common knowledge about the present invention will be able to make various modifications, changes and additions within the spirit and scope of the present invention, such modifications, changes and additions should be considered to fall within the scope of the claims of the present invention.
100 : 운용서버
110 : 통신처리부
120 : 인공지능 경작지도 생성부
130 : 데이터처리부
140 : 데이터베이스
200 : 무인드론
210 : 통신부
220 : 촬영부
230 : 제어부
300 : 로봇 농기계
310 : 통신부
320 : 제어부
330 : 센서부
340 : 저장부100: operation server
110: communication processing unit
120: artificial intelligence cultivation map generation unit
130: data processing unit
140 : database
200: unmanned drone
210: communication department
220: filming unit
230: control unit
300: robot farm machine
310: communication department
320: control unit
330: sensor unit
340: storage
Claims (5)
상기 무인드론으로부터 전송 받은 항공 촬영 이미지를 이용하여 경작지도를 생성하는 운용서버; 및
상기 운용서버로부터 전송 받은 경작지도를 바탕으로 농경지에 작물을 경작하는 로봇 농기계;를 포함하는 것을 특징으로 하는 인공지능 기반 농업 로봇용 농경지 경작지도 생성 시스템.
an unmanned drone that performs aerial photography to create a cultivation map;
an operation server for generating a cultivation map using the aerial photographed image received from the unmanned drone; and
A farmland cultivation map generation system for artificial intelligence-based agricultural robots, comprising: a robot farm machine that cultivates crops on farmland based on the cultivation map received from the operation server.
상기 운용서버는,
상기 무인드론 및 로봇 농기계와 정보 송수신을 위한 통신채널을 연결하기 위해 마련되는 통신처리부;
상기 무인드론으로부터 전송 받은 항공 촬영 이미지를 이용하여 폴리곤 렌더링을 수행한 후 농경지의 경계선을 파악하여 경작지도를 생성하고, 생성된 경작지도를 상기 로봇 농기계로 제공하기 위해 마련되는 인공지능 경작지도 생성부;
생성된 경작지도 데이터를 상기 로봇 농기계로 전송할 수 있는 전송 표준 포맷으로 변환하기 위해 마련되는 데이터 처리부; 및
경작지도 데이터와 상기 로봇 농기계로부터 수신된 토양 상태 정보를 저장하기 위해 마련되는 데이터베이스;를 포함하며,
상기 인공지능 경작지도 생성부는 딥러닝 기반의 인공지능으로 구성되어 상기 로봇 농기계로부터 전송된 토양의 각종 상태 정보와 폴리곤의 밀도 정보를 매칭 하여 농경지에 경작될 농작물의 종류를 자동으로 파악할 수 있는 것을 특징으로 하는 인공지능 기반 농업 로봇용 농경지 경작지도 생성 시스템.
According to claim 1,
The operating server,
a communication processing unit provided to connect a communication channel for transmitting and receiving information with the unmanned drone and the robot agricultural machine;
After performing polygon rendering using the aerial photographed image received from the unmanned drone, an artificial intelligence cultivation map generation unit provided to identify the boundaries of farmland to generate a cultivation map, and to provide the generated cultivation map to the robot farming machine ;
a data processing unit provided to convert the generated cultivation map data into a transmission standard format that can be transmitted to the robot agricultural machine; and
Includes; a database provided to store the cultivation map data and the soil condition information received from the robot agricultural machine;
The artificial intelligence cultivation map generation unit is composed of deep learning-based artificial intelligence and can automatically identify the types of crops to be cultivated on the farmland by matching the various state information of the soil transmitted from the robot farming machine and the density information of the polygons. An artificial intelligence-based farmland cultivation map generation system for agricultural robots.
상기 로봇 농기계는,
상기 운용서버와 정보 송수신을 위한 통신 채널을 연결하기 위해 마련되는 통신부;
상기 로봇 농기계의 각 구성을 제어하기 위해 마련되는 제어부;
상기 로봇 농기계의 경작 과정에서 해당 토양에 관한 각종 상태 정보를 측정하기 위해 마련되는 센서부; 및
상기 운용서버로부터 전송받은 경작지도 데이터를 저장하기 위해 마련되는 저장부;를 포함하는 것을 특징으로 하는 인공지능 기반 농업 로봇용 농경지 경작지도 생성 시스템.
3. The method of claim 2,
The robot agricultural machine,
a communication unit provided to connect the operation server and a communication channel for transmitting and receiving information;
a control unit provided to control each configuration of the robot agricultural machine;
a sensor unit provided to measure various state information about the soil in the cultivation process of the robot agricultural machine; and
and a storage unit provided to store the cultivation map data received from the operation server.
상기 무인드론이 항공 촬영 이미지를 운용서버의 인공지능 경작지도 생성부로 전송하는 (b)단계;
상기 인공지능 경작지도 생성부에서 상기 무인드론으로부터 전송 받은 항공 촬영 이미지를 이용하여 폴리곤 렌더링을 수행한 후 농경지 간의 경계면을 파악하여 경작지도를 생성하는 (c)단계;
생성된 경작지도를 상기 운용서버의 데이터베이스에 저장함과 동시에 상기 운용서버의 데이터 처리부에서 생성된 경작지도 데이터를 로봇 농기계로 전송할 수 있는 전송 표준 포맷으로 변환하여 상기 로봇 농기계로 전송하는 (d)단계;
상기 로봇 농기계가 전송받은 경작지도를 기반으로 농경지에 경작 활동을 함과 동시에 상기 로봇 농기계의 센서부를 통해 해당 농경지 토양의 각종 상태 정보를 수집하는 (e)단계; 및
상기 로봇 농기계의 센서부를 통해 수집된 농경지 토양의 각종 상태 정보를 상기 운용서버로 전송하는 (f)단계;를 포함하는 것을 특징으로 하는 인공지능 기반 농업 로봇용 농경지 경작지도 생성 방법.
(a) performing aerial photography of farmland for cultivation using an unmanned drone;
(b) transmitting, by the unmanned drone, an aerial photographed image to an artificial intelligence cultivation map generator of an operation server;
(c) generating a cultivation map by performing polygon rendering by the artificial intelligence cultivation map generator using the aerial photographed image transmitted from the unmanned drone, and then identifying the boundary between farmland;
(d) storing the generated cultivation map in the database of the operation server and at the same time converting the cultivation map data generated by the data processing unit of the operation server into a transmission standard format that can be transmitted to the robot agricultural machine and transmitting it to the robot agricultural machine;
(e) collecting various state information of the soil of the farmland through the sensor unit of the robot farm machine while performing cultivation activities on the farmland based on the farm map received by the robot farm machine; and
(f) transmitting the various state information of the farmland soil collected through the sensor unit of the robot farm machine to the operation server;
상기 운용서버의 인공지능 경작지도 생성부를 통해 수행되는 상기 (c)단계는,
폴리곤 렌더링이 수행된 이미지에서 각각의 폴리곤이 만나는 꼭지점의 개수를 이용하여 경계면 점의 좌표를 파악 하는 단계;
각각의 경계면 점을 선으로 연결하여 정리하는 단계;
GPS 또는 GLONASS 좌표와 연동하여 지상좌표계로 변환하는 단계; 및
상기 로봇 농기계로부터 수신된 토양의 각종 상태 정보와 폴리곤의 밀도 정보를 매칭 하여 농경지에 경작될 농작물의 종류를 변별하여 농경지에서 실제 경작 가능한 공간을 파악하는 단계;를 포함하는 것을 특징으로 하는 인공지능 기반 농업 로봇용 농경지 경작지도 생성 방법.5. The method of claim 4,
The step (c) performed through the artificial intelligence cultivation map generation unit of the operation server is,
determining the coordinates of the boundary point using the number of vertices where each polygon meets in the polygon-rendered image;
arranging by connecting each boundary point with a line;
converting to a terrestrial coordinate system in conjunction with GPS or GLONASS coordinates; and
Matching the various state information of the soil received from the robot farming machine and the density information of polygons to discriminate the types of crops to be cultivated on the farmland to identify the actual arable space in the farmland; How to create a farmland cultivation map for agricultural robots.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200076978A KR102371433B1 (en) | 2020-06-24 | 2020-06-24 | System and method for generating farming map of agricultural robot based on artificial intelligence |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200076978A KR102371433B1 (en) | 2020-06-24 | 2020-06-24 | System and method for generating farming map of agricultural robot based on artificial intelligence |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210158538A true KR20210158538A (en) | 2021-12-31 |
KR102371433B1 KR102371433B1 (en) | 2022-03-07 |
Family
ID=79177730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200076978A KR102371433B1 (en) | 2020-06-24 | 2020-06-24 | System and method for generating farming map of agricultural robot based on artificial intelligence |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102371433B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018029517A (en) * | 2016-08-24 | 2018-03-01 | シャープ株式会社 | Crop cultivation support system and soil improvement device |
WO2018178468A1 (en) * | 2017-03-31 | 2018-10-04 | Hemav Technology, S.L. | Method for the treatment of crops |
JP2018164420A (en) * | 2017-03-28 | 2018-10-25 | 井関農機株式会社 | Work management system of work vehicle |
KR102053582B1 (en) * | 2019-05-28 | 2019-12-06 | (주) 지오아이티 | Method of ground coverage classification by using image pattern learning based on deep learning |
-
2020
- 2020-06-24 KR KR1020200076978A patent/KR102371433B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018029517A (en) * | 2016-08-24 | 2018-03-01 | シャープ株式会社 | Crop cultivation support system and soil improvement device |
JP2018164420A (en) * | 2017-03-28 | 2018-10-25 | 井関農機株式会社 | Work management system of work vehicle |
WO2018178468A1 (en) * | 2017-03-31 | 2018-10-04 | Hemav Technology, S.L. | Method for the treatment of crops |
KR102053582B1 (en) * | 2019-05-28 | 2019-12-06 | (주) 지오아이티 | Method of ground coverage classification by using image pattern learning based on deep learning |
Also Published As
Publication number | Publication date |
---|---|
KR102371433B1 (en) | 2022-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111526710B (en) | Generating a digital farming map | |
US11765542B2 (en) | Hybrid vision system for crop land navigation | |
US9076105B2 (en) | Automated plant problem resolution | |
Nørremark et al. | Evaluation of an autonomous GPS-based system for intra-row weed control by assessing the tilled area | |
JP2021516060A (en) | Plant cultivation data measurement method, work route planning method and equipment, system | |
WO2013088567A1 (en) | Calculation method, calculation program and calculation device | |
US11716985B2 (en) | Method for remediating developmentally delayed plants | |
Reiser et al. | Iterative individual plant clustering in maize with assembled 2D LiDAR data | |
Li et al. | A comparative review of the state and advancement of Site-Specific Crop Management in the UK and China | |
WO2021122962A1 (en) | Computer implemented method for providing test design and test instruction data for comparative tests on yield, gross margin, efficacy or vegetation indices for at least two products or different application timings of the same product | |
CN110622949B (en) | Weeding method and device | |
Negrete | Precision agriculture in Mexico; Current status and perspectives | |
KR102371433B1 (en) | System and method for generating farming map of agricultural robot based on artificial intelligence | |
Goense et al. | An information model to describe systems for spatially variable field operations | |
Kaivosoja | Role of spatial data uncertainty in executions of precision farming operations | |
US12026944B2 (en) | Generation of digital cultivation maps | |
Shahbazi | Use of Light Detection and Ranging (LiDAR) to detect and map weeds that grow taller than crops at harvest | |
Escolà et al. | Agricultural Robotic Sensors for Crop and Environmental Modelling | |
Norzahari et al. | Spatially smart wine–testing geospatial technologies for sustainable wine production | |
JP2019135623A (en) | Plant information creation system | |
Singh et al. | Technologies that Work Together for Precision Agriculture | |
WO2023230186A1 (en) | Systems and methods for use in identifying trials in fields | |
Kutigi et al. | BENEFITS OF IMPLEMENTING PRECISION AGRICULTURE TECHNOLOGIES IN NIGERIAN AGRICULTURAL SYSTEM: A REVIEW | |
Cujbescu et al. | Adaptation of phytosanitary treatments correlated with the analysis of vegetation maps obtained through the means of an agricultural drone. | |
CN117470215A (en) | Path planning method based on crop map |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |