KR20240031559A - Smart farm autonomous driving robot system and control method thereof - Google Patents

Smart farm autonomous driving robot system and control method thereof Download PDF

Info

Publication number
KR20240031559A
KR20240031559A KR1020220110139A KR20220110139A KR20240031559A KR 20240031559 A KR20240031559 A KR 20240031559A KR 1020220110139 A KR1020220110139 A KR 1020220110139A KR 20220110139 A KR20220110139 A KR 20220110139A KR 20240031559 A KR20240031559 A KR 20240031559A
Authority
KR
South Korea
Prior art keywords
smart farm
fruit
robot system
user
open
Prior art date
Application number
KR1020220110139A
Other languages
Korean (ko)
Inventor
조윤기
Original Assignee
주식회사 웨이브에이아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 웨이브에이아이 filed Critical 주식회사 웨이브에이아이
Priority to KR1020220110139A priority Critical patent/KR20240031559A/en
Publication of KR20240031559A publication Critical patent/KR20240031559A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B76/00Parts, details or accessories of agricultural machines or implements, not provided for in groups A01B51/00 - A01B75/00
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D34/00Mowers; Mowing apparatus of harvesters
    • A01D34/006Control or measuring arrangements
    • A01D34/008Control or measuring arrangements for automated or remotely controlled operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/005Manipulators mounted on wheels or on carriages mounted on endless tracks or belts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/08Programme-controlled manipulators characterised by modular constructions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Environmental Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Soil Sciences (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 스마트 팜 자율주행 로봇 시스템에 관한 것으로, 비전카메라와 위치 센서를 포함하고, 스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 관리에 필요한 정보들을 검출하는 센서 모듈; 무선 통신 방식으로 외부 장치와 통신하며, 상기 스마트 팜 자율주행 로봇 시스템으로부터 각종 정보를 전달하고, 상기 스마트 팜 자율주행 로봇 시스템을 제어하기 위한 명령이나 데이터를 전송받는 통신 모듈; 상기 스마트 팜 자율주행 로봇 시스템의 동작을 전반적으로 제어하며, 상기 센서 모듈을 통해 검출된 정보들을 이용하여 노지형 스마트 팜의 상태 및 농작물의 생장 정보를 획득하며, 노지형 스마트 팜의 노지를 최적 상태로 관리하고, 상기 노지형 스마트 팜의 농작물이 안전하게 성장할 수 있도록 관리하는 프로세서; 및 상기 프로세서의 제어에 따라, 상기 스마트 팜 자율주행 로봇 시스템의 무한궤도형 바퀴를 구동하여, 노지형 스마트 팜의 경로를 주행하게 하는 구동 모듈;을 포함한다.The present invention relates to a smart farm self-driving robot system, and includes a sensor module that includes a vision camera and a position sensor and detects information necessary for the smart farm self-driving robot system to manage an open-air smart farm; A communication module that communicates with an external device through wireless communication, transmits various information from the smart farm autonomous robot system, and receives commands or data for controlling the smart farm autonomous robot system; It controls the overall operation of the smart farm self-driving robot system, uses the information detected through the sensor module to obtain the status of the open-air smart farm and crop growth information, and maintains the field of the open-air smart farm in optimal condition. A processor that manages and manages crops in the open-field smart farm to grow safely; and a driving module that drives the crawler wheels of the smart farm self-driving robot system under the control of the processor to travel along the path of the open-air smart farm.

Description

스마트 팜 자율주행 로봇 시스템 및 그 제어 방법{SMART FARM AUTONOMOUS DRIVING ROBOT SYSTEM AND CONTROL METHOD THEREOF}Smart farm autonomous robot system and control method {SMART FARM AUTONOMOUS DRIVING ROBOT SYSTEM AND CONTROL METHOD THEREOF}

본 발명은 스마트 팜 자율주행 로봇 시스템 및 그 제어 방법에 관한 것으로, 보다 상세하게는 노지형 스마트 팜에 대한 관리를 수행할 수 있도록 하는, 스마트 팜 자율주행 로봇 시스템 및 그 제어 방법에 관한 것이다.The present invention relates to a smart farm self-driving robot system and a control method thereof, and more specifically, to a smart farm self-driving robot system and a control method thereof that enable management of an open-air smart farm.

일반적으로 스마트 팜(Smart Farm)은 농사기술에 정보통신기술(ICT)을 접목하여 자동화함으로써 사람의 노동력이 필요한 부분을 최소화한 일종의 지능화된 농장을 의미한다. In general, Smart Farm refers to a type of intelligent farm that minimizes the need for human labor by automating farming technology by combining information and communication technology (ICT).

이러한 스마트 팜 기술에 따르면 사물인터넷(Internet of Things: IoT) 기술을 이용하여 농작물 재배시설의 온도, 습도, 햇볕 량, 이산화탄소, 토양 등을 측정하여 분석하고 농작물의 생장상태를 분석하며, 그 분석 결과에 따라서 자동화 시스템을 구동하여 농작물을 최적의 생장환경에서 재배할 수 있으며, 스마트폰과 같은 모바일기기를 통한 원격관리도 가능하다.According to this smart farm technology, the temperature, humidity, sunlight, carbon dioxide, soil, etc. of crop cultivation facilities are measured and analyzed using Internet of Things (IoT) technology, and the growth status of crops is analyzed, and the analysis results are obtained. Accordingly, crops can be grown in an optimal growth environment by running an automated system, and remote management is also possible through mobile devices such as smartphones.

또한 비료와 해충 방제를 위한 살충제를 자동 분사하는 것도 가능하다. It is also possible to automatically spray fertilizers and pesticides for pest control.

한편 이러한 스마트 팜은 시스템 구성 방식에 따라 다양한 형태와 다양한 비용으로 설치가 가능하지만, 통상적으로 많은 비용이 투입되기 때문에 최근에는 온실형 스마트 팜 대비 설치 비용이 보다 저렴한 노지형 스마트 팜에 대한 연구가 진행되고 있다. 상기 노지는 지붕으로 가리지 않은 땅으로, 농업에서는 시설이 설치되어 있지 않은 논과 밭 등을 의미한다.Meanwhile, these smart farms can be installed in various forms and at various costs depending on how the system is configured, but because they usually cost a lot of money, research has recently been conducted on open-air smart farms, which are cheaper to install than greenhouse-type smart farms. there is. The open field refers to land that is not covered by a roof, and in agriculture, it refers to rice paddies and fields without facilities.

그런데 상기 스마트 팜을 관리하기 위해서는 평탄화 작업이 먼저 이루어지는 것이 바람직하만, 노지형 스마트 팜의 경우, 노지의 특성상 평탄화가 안된 노지(예 : 과수원, 고랭지 채소 등)에 스마트 팜 시스템을 설치할 수 있으며, 또한 평탄화가 이루어졌다고 하더라도, 바람(태풍), 비(폭우), 햇볕(폭염) 등의 영향에 의해 비평탄화 상태로 변형될 수도 있기 때문에 이러한 노지형 스마트 팜에 대한 관리가 가능한 자율주행 로봇 시스템이 필요한 상황이다.However, in order to manage the smart farm, it is desirable to perform leveling work first. However, in the case of an open-field smart farm, the smart farm system can be installed in open fields (e.g. orchards, highland vegetables, etc.) that are not leveled due to the nature of the open field. Even if leveling is achieved, it may be transformed into a non-flat state due to the effects of wind (typhoon), rain (heavy rain), sunlight (heat wave), etc. Therefore, an autonomous robot system capable of managing such open-air smart farms is needed. It's a situation.

본 발명의 배경기술은 대한민국 등록특허 10-1556301호(2015.09.22. 등록, 무인자동로봇을 이용한 농작물 유해요소 방제장치)에 개시되어 있다. The background technology of the present invention is disclosed in Republic of Korea Patent No. 10-1556301 (registered on September 22, 2015, device for controlling harmful elements in crops using an unmanned automatic robot).

본 발명의 일 측면에 따르면, 본 발명은 상기와 같은 문제점을 해결하기 위해 창작된 것으로서, 노지형 스마트 팜에 대한 관리를 수행할 수 있도록 하는, 스마트 팜 자율주행 로봇 시스템 및 그 제어 방법을 제공하는 데 그 목적이 있다. According to one aspect of the present invention, the present invention was created to solve the above problems, and provides a smart farm autonomous robot system and a control method thereof that enable management of an open-air smart farm. There is a purpose.

본 발명의 일 측면에 따른 스마트 팜 자율주행 로봇 시스템은, 비전카메라와 위치 센서를 포함하고, 스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 관리에 필요한 정보들을 검출하는 센서 모듈; 무선 통신 방식으로 외부 장치와 통신하며, 상기 스마트 팜 자율주행 로봇 시스템으로부터 각종 정보를 전달하고, 상기 스마트 팜 자율주행 로봇 시스템을 제어하기 위한 명령이나 데이터를 전송받는 통신 모듈; 상기 스마트 팜 자율주행 로봇 시스템의 동작을 전반적으로 제어하며, 상기 센서 모듈을 통해 검출된 정보들을 이용하여 노지형 스마트 팜의 상태 및 농작물의 생장 정보를 획득하며, 노지형 스마트 팜의 노지를 최적 상태로 관리하고, 상기 노지형 스마트 팜의 농작물이 안전하게 성장할 수 있도록 관리하는 프로세서; 및 상기 프로세서의 제어에 따라, 상기 스마트 팜 자율주행 로봇 시스템의 무한궤도형 바퀴를 구동하여, 노지형 스마트 팜의 경로를 주행하게 하는 구동 모듈;을 포함하는 것을 특징으로 한다.The smart farm self-driving robot system according to one aspect of the present invention includes a sensor module that includes a vision camera and a position sensor and detects information necessary for the smart farm self-driving robot system to manage an open-air smart farm; A communication module that communicates with an external device through wireless communication, transmits various information from the smart farm autonomous robot system, and receives commands or data for controlling the smart farm autonomous robot system; It controls the overall operation of the smart farm self-driving robot system, uses the information detected through the sensor module to obtain the status of the open-air smart farm and crop growth information, and maintains the field of the open-air smart farm in optimal condition. A processor that manages and manages crops in the open-field smart farm to grow safely; and a driving module that drives the crawler wheels of the smart farm self-driving robot system according to the control of the processor to travel the path of the open-air smart farm.

본 발명에 있어서, 상기 스마트 팜 자율주행 로봇 시스템의 구동을 위한 소프트웨어나 데이터, 및 상기 스마트 팜 자율주행 로봇 시스템의 관리 기능 수행 중에 발생하는 데이터를 저장하는 메모리 모듈;을 더 포함하는 것을 특징으로 한다.In the present invention, the device further includes a memory module that stores software or data for driving the smart farm autonomous robot system and data generated while performing management functions of the smart farm autonomous robot system. .

본 발명에 있어서, 상기 프로세서는, 미리 학습된 정보에 기초하여, 상기 비전카메라를 통해 촬영된 영상을 분석하여, 노지의 형태, 노지에서 자라는 잡초, 노지에 떨어진 과일이나 나뭇가지, 노지에서 자라는 야채 및 나무의 형태, 나무나 나뭇가지의 형태, 과일의 형태, 나뭇잎의 형태, 및 색깔을 구분하는 것을 특징으로 한다.In the present invention, the processor analyzes the image captured through the vision camera based on information learned in advance, and determines the shape of the field, weeds growing in the field, fruits or tree branches that have fallen in the field, and vegetables growing in the field. And it is characterized by distinguishing the shape of the tree, the shape of the tree or branches, the shape of the fruit, the shape of the leaves, and the color.

본 발명에 있어서, 상기 프로세서의 제어에 따라, 상기 센서 모듈의 비전카메라를 이용해 노지의 상태, 나무나 농작물의 상태를 정확히 검출하기 위하여, 촬영 방향으로 바람을 분사함으로써 나뭇가지나 나뭇잎이 카메라의 전방을 가리지 않도록 비켜나게 하는 바람 발생 모듈;을 더 포함하는 것을 특징으로 한다.In the present invention, in order to accurately detect the state of the field and the state of trees or crops using the vision camera of the sensor module under the control of the processor, wind is blown in the shooting direction to prevent tree branches or leaves from moving in front of the camera. It is characterized in that it further includes a wind generation module that moves out of the way so as not to obscure it.

본 발명에 있어서, 상기 프로세서의 제어에 따라, 상기 스마트 팜 자율주행 로봇 시스템의 일 측면에 장착되는 복수의 농기구 모듈 중 어느 하나를 선택하여 해당 농기구 모듈에 대응하는 작업을 수행하기 위한 농기구 모듈;을 더 포함하는 것을 특징으로 한다.In the present invention, according to the control of the processor, a farming equipment module for selecting one of a plurality of farming equipment modules mounted on one side of the smart farm autonomous robot system and performing a task corresponding to the farming equipment module; It is characterized by including more.

본 발명에 있어서, 상기 농기구 모듈은, 괭이나 쟁기와 같이 땅을 고르기 위한 농기구 모듈; 낫이나 예초기와 같이 제초 작업을 위한 농기구 모듈; 전지가위나 전동 톱을 이용하여 나뭇가지를 자르는 전지 작업을 위한 농기구 모듈; 및 삽이나 집게를 이용하여 땅을 파거나 덮는 작업을 위한 농기구 모듈; 중 적어도 하나 이상을 포함하는 것을 특징으로 한다.In the present invention, the agricultural tool module includes a farming tool module for leveling the land, such as a hoe or a plow; Agricultural equipment modules for weeding operations, such as scythes or mowers; A farm tool module for pruning, cutting tree branches using pruning shears or an electric saw; and agricultural implement modules for digging or covering the ground using shovels or tongs; It is characterized by including at least one of the following.

본 발명에 있어서, 상기 프로세서는, 스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하여, 노지에 파인 땅이 있는지 감지하고, 노지에 파인 땅이 감지될 경우, 노지에 파인 땅이 있음을 사용자에게 알리고, 사용자의 허가를 받아 땅 고르기 작업을 수행하는데 적합한 해당 농기구 모듈을 선택하거나 장착하여 땅 고르기 작업을 수행하고, 상기 땅 고르기 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 것을 특징으로 한다.In the present invention, the processor analyzes images acquired through a vision camera while the smart farm autonomous robot system travels the path of the open-air smart farm, detects whether there is dug land in the open ground, and detects whether there is dug land in the open ground. When this is detected, the user is notified that there is dug land in the open field, and with the user's permission, the appropriate agricultural equipment module suitable for performing the land leveling work is selected or installed to perform the land leveling work. When the land leveling work is completed, the land leveling work is performed. , It is characterized by informing the user of the images taken before and after the operation and leaving a record in the database of the memory module.

본 발명에 있어서, 상기 프로세서는, 스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하여, 노지에 잡초가 지정된 기준 이상 자랐는지 감지하고, 노지에 자란 잡초가 감지될 경우, 노지에 잡초가 자라고 있음을 사용자에게 알리고, 사용자의 허가를 받아 제초 작업을 수행하는데 적합한 해당 농기구 모듈을 선택하거나 장착하여 제초 작업을 수행하고, 상기 제초 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 것을 특징으로 한다.In the present invention, the processor analyzes images acquired through a vision camera while the smart farm autonomous robot system travels the path of the open-field smart farm, detects whether weeds have grown in the open field beyond a specified standard, and detects whether the weeds in the open field have grown beyond a specified standard. When weeds growing in the field are detected, the system notifies the user that weeds are growing in the open field, receives the user's permission, selects or installs a suitable agricultural equipment module to perform the weeding operation, and performs the weeding operation. When the weeding operation is completed, the , It is characterized by informing the user of the images taken before and after the operation and leaving a record in the database of the memory module.

본 발명에 있어서, 상기 프로세서는, 스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하여, 노지형 스마트 팜에 식재된 나무의 나뭇가지의 모양을 분석하고, 상기 나뭇가지의 모양을 분석할 결과, 부러진 나뭇가지 또는 전지할 나뭇가지로 감지될 경우, 상기 나뭇가지가 상기 스마트 팜 자율주행 로봇 시스템에 장착된 농기구 모듈에 의해 자동 전지 가능한 나뭇가지인지 체크하고, 상기 나뭇가지가 자동 전지 가능한 나뭇가지인 경우, 전지할 나뭇가지가 있음을 사용자에게 알리고, 사용자의 허가를 받아 전지 작업을 수행하는데 적합한 해당 농기구 모듈을 선택하거나 장착하여 전자 작업을 수행하고, 상기 전지 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 것을 특징으로 한다.In the present invention, the processor analyzes images acquired through a vision camera while the smart farm autonomous robot system travels the path of the open-air smart farm, and determines the shape of the branches of trees planted in the open-air smart farm. and, as a result of analyzing the shape of the tree branch, if it is detected as a broken tree branch or a tree branch to be pruned, the tree branch can be automatically pruned by a farming equipment module mounted on the smart farm autonomous robot system. If the tree branch is a tree branch capable of automatic pruning, it notifies the user that there is a tree branch to be pruned, and, with the user's permission, selects or installs the appropriate agricultural equipment module to perform the pruning task and performs the electronic task. And, when the battery operation is completed, the images taken before and after the operation are notified to the user and records are left in the database of the memory module.

본 발명에 있어서, 상기 프로세서는, 상기 나뭇가지가 자동 전지 가능한 나뭇가지가 아닌 경우, 전지할 나뭇가지가 있는 나무의 위치를 메모리 모듈에 지도 형태로 기록하고, 상기 기록한 위치를 사용자에게 안내하여 사용자가 전지 작업을 수행할 수 있도록 하는 것을 특징으로 한다.In the present invention, if the tree branch is not a tree branch capable of automatic pruning, the processor records the location of the tree containing the branch to be pruned in the form of a map in a memory module and guides the user to the recorded location. It is characterized in that it allows performing pruning work.

본 발명에 있어서, 상기 프로세서는, 스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하여, 노지형 스마트 팜에 식재된 나무의 나뭇가지에 매달린 과일의 형태와 색깔을 분석하고, 상기 나뭇가지에 매달린 과일의 현재 생장 시점에서 봉투에 싸이지 않은 과일이 감지될 경우, 상기 봉투에 싸이지 않은 과일이 매달린 나무의 위치를 메모리 모듈에 지도 형태로 기록하고, 상기 기록한 위치를 사용자에게 안내하여 사용자가 과일 봉투 작업을 수행할 수 있도록 하고, 상기 사용자가 과일 봉투 작업을 수행하면 상기 지도에 기록된 정보와 비교하여 모든 과일에 대하여 과일 봉투 작업이 완료되는지 체크하여, 상기 지도에 기록된 모든 과일에 대하여 과일 봉투 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 것을 특징으로 한다.In the present invention, the processor analyzes images acquired through a vision camera while the smart farm self-driving robot system travels the path of the open-air smart farm, and detects a tree hanging on a branch of a tree planted in the open-air smart farm. The shape and color of the fruit are analyzed, and if unbagged fruit is detected at the current growth point of the fruit hanging from the tree branch, the location of the tree where the unbagged fruit is hanging is stored in the memory module in the form of a map. records, guides the user to the recorded location so that the user can perform the fruit bag task, and when the user performs the fruit bag task, the fruit bag task is completed for all fruits by comparing the information recorded on the map. When the fruit bag operation is completed for all fruits recorded on the map, the image captured before and after the operation is notified to the user and a record is left in the database of the memory module.

본 발명에 있어서, 상기 프로세서는, 스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하여, 땅에 떨어진 과일이 있는지 감지하고, 상기 땅에 떨어진 과일이 썩거나 과육이 파인 과일인 경우, 상기 땅에 떨어진 과일을 땅에 파묻기 위한 작업을 수행하는데 적합한 해당 농기구 모듈을 선택하거나 장착하여 과일 파묻기 작업을 수행하고, 상기 과일 파묻기 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 것을 특징으로 한다.In the present invention, the processor analyzes images acquired through a vision camera while the smart farm autonomous robot system travels the path of the open-air smart farm, detects whether there is fruit that has fallen on the ground, and detects whether there is fruit that has fallen on the ground. If the fruit is rotten or the fruit has burrowed flesh, the fruit burying task is performed by selecting or installing the appropriate agricultural equipment module suitable for performing the task of burying the fruit that has fallen to the ground, and the fruit burying task is completed. When this happens, the images taken before and after the operation are notified to the user and a record is left in the database of the memory module.

본 발명에 있어서, 상기 프로세서는, 스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하여, 노지형 스마트 팜에 식재된 나무의 나뭇가지에 매달린 과일의 형태와 색깔을 분석하고, 상기 나뭇가지에 매달린 과일이 썩은 과일, 과육이 파인 과일, 또는 익은 과일 중 어느 하나일 경우, 상기 해당 과일이 매달린 나무의 위치를 메모리 모듈에 지도 형태로 기록하고, 상기 기록한 위치를 사용자에게 안내하여 사용자가 과일 제거 작업 또는 과일 수확 작업을 수행할 수 있게 하고, 상기 사용자가 과일 제거 작업 또는 과일 수확 작업을 수행하면, 상기 지도에 기록된 정보와 비교하여 종류별 모든 과일에 대하여 각기 해당하는 작업이 완료되는지 체크하고, 상기 지도에 기록된 종류별 모든 과일에 대하여 각각 해당하는 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 것을 특징으로 한다.In the present invention, the processor analyzes images acquired through a vision camera while the smart farm self-driving robot system travels the path of the open-air smart farm, and detects a tree hanging on a branch of a tree planted in the open-air smart farm. Analyze the shape and color of the fruit, and if the fruit hanging on the branch is one of rotten fruit, fruit with peeled flesh, or ripe fruit, record the location of the tree on which the fruit hangs in the form of a map in the memory module. , the recorded location is guided to the user so that the user can perform a fruit removal operation or a fruit harvesting operation, and when the user performs a fruit removal operation or a fruit harvesting operation, all information by type is compared with the information recorded on the map. It is checked whether the corresponding task is completed for each fruit, and when the corresponding task is completed for all fruits of each type recorded on the map, the images taken before and after the task are notified to the user and recorded in the database of the memory module. It is characterized by leaving behind.

본 발명의 다른 측면에 따른 스마트 팜 자율주행 로봇 시스템의 제어 방법은, 스마트 팜 자율주행 로봇 시스템의 프로세서가, 상기 스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하여, 노지에 파인 땅이 있는지 감지하는 단계; 노지에 파인 땅이 감지될 경우, 노지에 파인 땅이 있음을 사용자에게 알리고, 사용자의 허가를 받아 땅 고르기 작업을 수행하는데 적합한 해당 농기구 모듈을 선택하거나 장착하여 땅 고르기 작업을 수행하는 단계; 및 상기 땅 고르기 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 단계;를 포함하는 것을 특징으로 한다.A method of controlling a smart farm self-driving robot system according to another aspect of the present invention includes the processor of the smart farm self-driving robot system using a vision camera while the smart farm self-driving robot system is traveling on a path of an open-air smart farm. Analyzing the acquired image to detect whether there is dug ground in the open field; When dug up land is detected in the open field, notifying the user that there is dug up land in the open field, receiving permission from the user, and performing the land leveling work by selecting or installing a corresponding agricultural equipment module suitable for performing the land leveling work; And when the land leveling work is completed, notifying the user of images taken before and after the work and leaving a record in the database of the memory module.

본 발명에 있어서, 상기 스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하는 단계 이후, 상기 프로세서가, 노지에 잡초가 지정된 기준 이상 자랐는지 감지하는 단계; 노지에 자란 잡초가 감지될 경우, 노지에 잡초가 자라고 있음을 사용자에게 알리고, 사용자의 허가를 받아 제초 작업을 수행하는데 적합한 해당 농기구 모듈을 선택하거나 장착하여 제초 작업을 수행하는 단계; 및 상기 제초 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 단계;를 더 포함하는 것을 특징으로 한다.In the present invention, after the smart farm self-driving robot system analyzes images acquired through a vision camera while driving the path of an open-air smart farm, the processor detects whether weeds in the open field have grown beyond a specified standard. steps; When weeds growing in the open field are detected, notifying the user that weeds are growing in the open field, receiving permission from the user, and performing the weeding work by selecting or installing a corresponding agricultural equipment module suitable for performing the weeding work; And when the weeding operation is completed, notifying the user of images captured before and after the operation and leaving a record in the database of the memory module.

본 발명에 있어서, 상기 스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하는 단계 이후, 상기 프로세서가, 노지형 스마트 팜에 식재된 나무의 나뭇가지의 모양을 분석하는 단계; 상기 나뭇가지의 모양을 분석할 결과, 부러진 나뭇가지 또는 전지할 나뭇가지로 감지될 경우, 상기 나뭇가지가 상기 스마트 팜 자율주행 로봇 시스템에 장착된 농기구 모듈에 의해 자동 전지 가능한 나뭇가지인지 체크하는 단계; 상기 나뭇가지가 자동 전지 가능한 나뭇가지인 경우, 전지할 나뭇가지가 있음을 사용자에게 알리고, 사용자의 허가를 받아 전지 작업을 수행하는데 적합한 해당 농기구 모듈을 선택하거나 장착하여 전자 작업을 수행하는 단계; 및 상기 전지 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 단계;를 더 포함하는 것을 특징으로 한다.In the present invention, after the step of analyzing images acquired through a vision camera while the smart farm autonomous robot system travels the path of the open-air smart farm, the processor Analyzing the shape of the branches; As a result of analyzing the shape of the branch, if it is detected as a broken branch or a branch to be pruned, checking whether the branch is capable of automatic pruning by a farming equipment module mounted on the smart farm autonomous robot system. ; If the tree branch is a tree branch capable of automatic pruning, notifying the user that there is a tree branch to be pruned, receiving the user's permission, and performing an electronic task by selecting or installing a corresponding agricultural equipment module suitable for performing the pruning task; And when the battery operation is completed, notifying the user of images captured before and after the operation and leaving a record in the database of the memory module.

본 발명에 있어서, 상기 나뭇가지가 자동 전지 가능한 나뭇가지가 아닌 경우, 상기 프로세서는, 전지할 나뭇가지가 있는 나무의 위치를 메모리 모듈에 지도 형태로 기록하고, 상기 기록한 위치를 사용자에게 안내하여 사용자가 전지 작업을 수행할 수 있도록 하는 것을 특징으로 한다.In the present invention, if the tree branch is not a tree branch capable of automatic pruning, the processor records the location of the tree containing the branch to be pruned in the form of a map in a memory module and guides the user to the recorded location. It is characterized in that it allows performing pruning work.

본 발명에 있어서, 상기 스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하는 단계 이후, 상기 프로세서가, 노지형 스마트 팜에 식재된 나무의 나뭇가지에 매달린 과일의 형태와 색깔을 분석하는 단계; 상기 나뭇가지에 매달린 과일의 현재 생장 시점에서 봉투에 싸이지 않은 과일이 감지될 경우, 상기 봉투에 싸이지 않은 과일이 매달린 나무의 위치를 메모리 모듈에 지도 형태로 기록하고, 상기 기록한 위치를 사용자에게 안내하여 사용자가 과일 봉투 작업을 수행할 수 있도록 하는 단계; 상기 사용자가 과일 봉투 작업을 수행하면 상기 지도에 기록된 정보와 비교하여 모든 과일에 대하여 과일 봉투 작업이 완료되는지 체크하는 단계; 및 상기 지도에 기록된 모든 과일에 대하여 과일 봉투 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 단계;를 더 포함하는 것을 특징으로 한다.In the present invention, after the step of analyzing images acquired through a vision camera while the smart farm autonomous robot system travels the path of the open-air smart farm, the processor Analyzing the shape and color of fruit hanging from branches; If unbagged fruit is detected at the current growth point of the fruit hanging from the tree branch, the location of the tree where the unbagged fruit hangs is recorded in the form of a map in the memory module, and the recorded location is sent to the user. Guiding a user to perform a fruit bag task; When the user performs the fruit bag task, comparing the information recorded in the map to check whether the fruit bag task is completed for all fruits; And when the fruit bag operation is completed for all fruits recorded in the map, notifying the user of images taken before and after the operation and leaving a record in the database of the memory module.

본 발명에 있어서, 상기 스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하는 단계 이후, 상기 프로세서가, 땅에 떨어진 과일이 있는지 감지하는 단계; 상기 땅에 떨어진 과일이 썩거나 과육이 파인 과일인 경우, 상기 땅에 떨어진 과일을 땅에 파묻기 위한 작업을 수행하는데 적합한 해당 농기구 모듈을 선택하거나 장착하여 과일 파묻기 작업을 수행하는 단계; 및 상기 과일 파묻기 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 단계;를 더 포함하는 것을 특징으로 한다.In the present invention, after analyzing images acquired through a vision camera while the smart farm autonomous robot system travels a path of an open-air smart farm, the processor detects whether there is fruit that has fallen on the ground; If the fruit that has fallen to the ground is rotten or has a hollow flesh, performing the fruit burying task by selecting or installing a corresponding farming tool module suitable for performing the task of burying the fruit that has fallen to the ground; And when the fruit burying operation is completed, notifying the user of images captured before and after the operation and leaving a record in the database of the memory module.

본 발명에 있어서, 상기 스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하는 단계 이후, 상기 프로세서가, 노지형 스마트 팜에 식재된 나무의 나뭇가지에 매달린 과일의 형태와 색깔을 분석하는 단계; 상기 나뭇가지에 매달린 과일이 썩은 과일, 과육이 파인 과일, 또는 익은 과일 중 어느 하나일 경우, 상기 해당 과일이 매달린 나무의 위치를 메모리 모듈에 지도 형태로 기록하고, 상기 기록한 위치를 사용자에게 안내하여 사용자가 과일 제거 작업 또는 과일 수확 작업을 수행할 수 있게 하는 단계; 상기 사용자가 과일 제거 작업 또는 과일 수확 작업을 수행하면, 상기 지도에 기록된 정보와 비교하여 종류별 모든 과일에 대하여 각기 해당하는 작업이 완료되는지 체크하는 단계; 및 상기 지도에 기록된 종류별 모든 과일에 대하여 각각 해당하는 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 단계;를 더 포함하는 것을 특징으로 한다.In the present invention, after the step of analyzing images acquired through a vision camera while the smart farm autonomous robot system travels the path of the open-air smart farm, the processor Analyzing the shape and color of fruit hanging from branches; If the fruit hanging on the tree branch is a rotten fruit, a fruit with peeled flesh, or a ripe fruit, the location of the tree on which the fruit is hanging is recorded in the form of a map in a memory module, and the recorded location is guided to the user. enabling a user to perform a fruit removal operation or a fruit harvesting operation; When the user performs a fruit removal task or a fruit harvest task, comparing the information recorded on the map to check whether the corresponding task is completed for all fruits of each type; And when the corresponding task is completed for all fruits of each type recorded on the map, notifying the user of the images taken before and after the task and leaving a record in the database of the memory module.

본 발명의 일 측면에 따르면, 본 발명은 노지형 스마트 팜에 대한 관리를 수행할 수 있도록 한다.According to one aspect of the present invention, the present invention enables management of an open-air smart farm.

도 1은 본 발명의 일 실시 예에 따른 스마트 팜 자율주행 로봇 시스템의 개략적인 구성을 보인 예시도.
도 2는 상기 도 1에 있어서, 스마트 팜 자율주행 로봇 시스템의 개략적인 형상을 보인 예시도.
도 3은 본 발명의 제1 실시 예에 따른 스마트 팜 자율주행 로봇 시스템의 제어 방법을 설명하기 위한 흐름도.
도 4는 본 발명의 제2 실시 예에 따른 스마트 팜 자율주행 로봇 시스템의 제어 방법을 설명하기 위한 흐름도.
도 5은 본 발명의 제3 실시 예에 따른 스마트 팜 자율주행 로봇 시스템의 제어 방법을 설명하기 위한 흐름도.
도 6은 본 발명의 제4 실시 예에 따른 스마트 팜 자율주행 로봇 시스템의 제어 방법을 설명하기 위한 흐름도.
도 7은 본 발명의 제5 실시 예에 따른 스마트 팜 자율주행 로봇 시스템의 제어 방법을 설명하기 위한 흐름도.
도 8은 본 발명의 제6 실시 예에 따른 스마트 팜 자율주행 로봇 시스템의 제어 방법을 설명하기 위한 흐름도.
1 is an exemplary diagram showing the schematic configuration of a smart farm autonomous robot system according to an embodiment of the present invention.
FIG. 2 is an exemplary diagram showing the schematic shape of the smart farm autonomous robot system in FIG. 1.
Figure 3 is a flowchart illustrating a control method of a smart farm autonomous robot system according to the first embodiment of the present invention.
Figure 4 is a flowchart illustrating a control method of a smart farm autonomous robot system according to a second embodiment of the present invention.
Figure 5 is a flowchart illustrating a control method of a smart farm autonomous robot system according to a third embodiment of the present invention.
Figure 6 is a flowchart illustrating a control method of a smart farm autonomous robot system according to a fourth embodiment of the present invention.
Figure 7 is a flowchart illustrating a control method of a smart farm autonomous robot system according to a fifth embodiment of the present invention.
Figure 8 is a flowchart illustrating a control method of a smart farm autonomous robot system according to a sixth embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 따른 스마트 팜 자율주행 로봇 시스템 및 그 제어 방법의 일 실시 예를 설명한다. Hereinafter, an embodiment of the smart farm autonomous robot system and its control method according to the present invention will be described with reference to the attached drawings.

이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In this process, the thickness of lines or sizes of components shown in the drawing may be exaggerated for clarity and convenience of explanation. In addition, the terms described below are terms defined in consideration of functions in the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, definitions of these terms should be made based on the content throughout this specification.

도 1은 본 발명의 일 실시 예에 따른 스마트 팜 자율주행 로봇 시스템의 개략적인 구성을 보인 예시도이고, 도 2는 상기 도 1에 있어서, 스마트 팜 자율주행 로봇 시스템의 개략적인 형상을 보인 예시도이다.FIG. 1 is an exemplary diagram showing the schematic configuration of a smart farm autonomous robot system according to an embodiment of the present invention, and FIG. 2 is an exemplary diagram showing the schematic configuration of the smart farm autonomous robot system in FIG. 1. am.

도 1에 도시된 바와 같이, 본 실시 예에 따른 스마트 팜 자율주행 로봇 시스템은, 센서 모듈(110), 통신 모듈(120), 메모리 모듈(130), 프로세서(140), 구동 모듈(150), 바람 발생 모듈(160), 및 농기구 모듈(170)을 포함한다.As shown in FIG. 1, the smart farm autonomous robot system according to this embodiment includes a sensor module 110, a communication module 120, a memory module 130, a processor 140, a driving module 150, It includes a wind generation module 160 and a farming equipment module 170.

상기 센서 모듈(110)은 스마트 팜 자율주행 로봇 시스템이 자율주행을 통해 스마트 팜 관리 기능을 수행할 수 있도록 하기 위한 정보를 검출한다.The sensor module 110 detects information to enable the smart farm self-driving robot system to perform smart farm management functions through autonomous driving.

예컨대 상기 센서 모듈(110)은 적어도 카메라(비전카메라), 위치 센서(예 : GPS)를 포함한다. For example, the sensor module 110 includes at least a camera (vision camera) and a location sensor (eg, GPS).

상기 센서 모듈(110)의 카메라는 상기 스마트 팜 자율주행 로봇 시스템의 일 측(예 : 회전 가능한 바람 발생 모듈의 상부, 본체의 상부나 전면)에 마련되어 노지의 상태 및 농작물의 나뭇가지나 과실의 영상을 획득할 수 있다. The camera of the sensor module 110 is provided on one side of the smart farm autonomous robot system (e.g., the top of the rotatable wind generation module, the top or front of the main body) and captures images of the condition of the field and the branches or fruits of crops. It can be obtained.

또한 상기 센서 모듈(110)의 위치 센서(GPS)는 상기 스마트 팜 자율주행 로봇 시스템이 이동하고 있는 현재 위치(즉, 스마트 팜 내부에서의 위치)를 검출한다.Additionally, the position sensor (GPS) of the sensor module 110 detects the current location where the smart farm autonomous robot system is moving (i.e., the location within the smart farm).

상기 통신 모듈(120)은 외부 장치(예 : 스마트 팜 관리용 PC, 스마트 팜 관리 서버, 관리자의 스마트폰 등)와 무선 통신 기능을 수행할 수 있다. The communication module 120 may perform a wireless communication function with an external device (e.g., a smart farm management PC, a smart farm management server, an administrator's smartphone, etc.).

예컨대 상기 외부 장치들은 상기 통신 모듈(120)을 통해 상기 스마트 팜 자율주행 로봇 시스템으로부터 각종 정보를 전달받을 수 있고, 상기 스마트 팜 자율주행 로봇 시스템을 제어하기 위한 명령이나 데이터를 전송할 수도 있다.For example, the external devices can receive various information from the smart farm autonomous robot system through the communication module 120, and can also transmit commands or data for controlling the smart farm autonomous robot system.

상기 메모리 모듈(130)은 상기 스마트 팜 자율주행 로봇 시스템의 구동을 위한 소프트웨어나 데이터를 저장한다. The memory module 130 stores software or data for driving the smart farm autonomous robot system.

또한 상기 메모리 모듈(130)은 상기 스마트 팜 자율주행 로봇 시스템의 관리 기능 수행 중에 발생하는 데이터를 저장할 수 있다.Additionally, the memory module 130 may store data generated while performing management functions of the smart farm autonomous robot system.

상기 프로세서(140)는 상기 스마트 팜 자율주행 로봇 시스템의 동작을 전반적으로 제어하며, 상기 센서 모듈(110)을 이용한 비전검사를 통하여 스마트 팜의 상태 및 농작물의 생장 정보를 획득하며, 이를 기반으로 스마트 팜을 최적 상태로 관리하며, 농작물이 안전하게 성장할 수 있도록 관리한다.The processor 140 generally controls the operation of the smart farm autonomous robot system, and obtains the status of the smart farm and crop growth information through vision inspection using the sensor module 110, and based on this, the smart farm We manage the farm in optimal condition and manage crops so that they can grow safely.

상기 프로세서(140)는 상기 센서 모듈(110)을 통해 검출된 정보(예 : 영상 정보, 위치 정보)를 분석한다.The processor 140 analyzes information (eg, image information, location information) detected through the sensor module 110.

예컨대 상기 프로세서(140)는 미리 학습(예 : 딥러닝 알고리즘)된 정보에 기초하여, 상기 영상을 분석하여, 노지의 형태, 노지에서 자란 잡초(풀), 노지에 떨어진 객체(예 : 과일, 나뭇가지, 동물의 대변 등), 야채 및 나무 등을 구분하며, 또한 나무나 나뭇가지의 형태, 과일의 형태, 나뭇잎의 형태, 및 색깔 등을 구분한다.For example, the processor 140 analyzes the image based on information learned in advance (e.g., deep learning algorithm) to determine the shape of the open field, weeds (grass) growing in the open field, and objects (e.g., fruits, trees) that have fallen on the open field. branches, animal feces, etc.), vegetables and trees, etc., and also distinguish the shape of trees or branches, the shape of fruit, the shape and color of leaves, etc.

상기 구동 모듈(150)은, 상기 프로세서(140)의 제어에 따라, 배터리(미도시)로부터 공급되는 전력에 기초하여, 바퀴(예 : 무한궤도형 바퀴)(151)를 제어하여, 전진, 후진, 속도 제어 및 방향 제어를 수행한다.The driving module 150 controls the wheel (e.g., crawler wheel) 151 to move forward or backward based on power supplied from a battery (not shown) under the control of the processor 140. , performs speed control and direction control.

상기 프로세서(140)는 상기 센서 모듈(110)을 통해 검출된 정보를 바탕으로 상기 구동 모듈(150)을 제어함으로써, 상기 스마트 팜 자율주행 로봇 시스템이 자율주행을 통해 스마트 팜 관리 기능을 수행하게 한다.The processor 140 controls the driving module 150 based on information detected through the sensor module 110, allowing the smart farm self-driving robot system to perform a smart farm management function through autonomous driving. .

상기 바람 발생 모듈(160)은, 상기 프로세서(140)의 제어에 따라, 상기 센서 모듈(110)의 카메라를 이용해 노지 및 나무(또는 농작물)의 상태를 정확히 검출하기 위하여(예 : 나뭇가지나 나뭇잎 뒤에 숨은 과실 등을 촬영하기 위하여), 촬영 방향으로 바람을 분사함으로써 나뭇가지나 나뭇잎이 카메라의 전방을 가리지 않도록 비켜나게 한다.The wind generation module 160, under the control of the processor 140, uses the camera of the sensor module 110 to accurately detect the state of the field and trees (or crops) (e.g., behind tree branches or leaves). (to take pictures of hidden fruits, etc.), spray wind in the shooting direction to move tree branches or leaves out of the way so that they do not block the front of the camera.

상기 프로세서(140)는 상기 센서 모듈(110)을 통해 검출된 영상을 분석하여, 나뭇가지가 부러졌거나, 전지(즉, 식물의 겉모양을 고르게 하고 웃자람을 막으며, 과실나무 등의 생산을 늘리기 위하여 곁가지 따위를 자르고 다듬는 일로서, 가지고르기, 가지다듬기, 가지치기 등)가 필요한 나뭇가지를 검출한다.The processor 140 analyzes the image detected through the sensor module 110 to detect broken tree branches or pruning (i.e., to even out the outer appearance of plants, prevent overgrowth, and increase production of fruit trees, etc.). Detecting tree branches that require pruning, pruning, pruning, etc., which involves cutting and trimming side branches, etc.

또한 과수원 등에서는 과일이 조류나 벌레에 의해 상하는 것을 방지하기 위하여 종이봉투로 싸는 작업을 하게 되는데, 상기 프로세서(140)는 상기 센서 모듈(110)을 통해 검출된 영상을 분석하여, 종이봉투에 싸인 과일과 종이봉투에 싸이지 않은 과일을 구분한다.In addition, in orchards, etc., fruits are wrapped in paper bags to prevent them from being damaged by birds or insects. The processor 140 analyzes the image detected through the sensor module 110 and determines the fruit wrapped in the paper bag. Separate fruit from fruit not wrapped in a paper bag.

또한 상기 프로세서(140)는 과일 나무(예 : 사과, 배, 복숭아 등)에서 썩은 과일, 과육이 파인 과일, 및 익은 과일을 구분하여, 종류별 개수와 위치를 기록하여 지도(맵)로 작성하여 사용자에게 알림으로써, 사용자가 과일 제거 작업을 수행하게하거나 과일 수확 작업을 수행하게 할 수 있다.In addition, the processor 140 distinguishes rotten fruit, peeled fruit, and ripe fruit from fruit trees (e.g., apples, pears, peaches, etc.), records the number and location of each type, and creates a map for use by the user. By notifying the user, the user can perform a fruit removal task or a fruit harvesting task.

상기 농기구 모듈(170)은, 상기 프로세서(140)의 제어에 따라, 상기 스마트 팜 자율주행 로봇 시스템의 일 측면에 장착되는 복수의 농기구 모듈(즉, 스마트 팜의 관리에 필요한 복수의 농기구 모듈) 중 어느 하나를 선택하여 해당 농기구 모듈에 대응하는 작업을 수행한다.The farming equipment module 170 is one of a plurality of farming equipment modules (i.e., a plurality of farming equipment modules required for smart farm management) mounted on one side of the smart farm autonomous robot system under the control of the processor 140. Select one and perform the task corresponding to the farm equipment module.

예컨대 상기 농기구 모듈(170)은 괭이나 쟁기와 같이 땅을 고르기 위한 농기구 모듈(1번 농기구 모듈), 낫이나 예초기와 같이 제초 작업을 위한 농기구 모듈(2번 농기구 모듈), 전지가위나 전동 톱을 이용하여 나뭇가지를 자르는 전지 작업을 위한 농기구 모듈(3번 농기구 모듈), 및 삽이나 집게 등을 이용하여 땅을 파거나 덮는 작업을 위한 농기구 모듈(4번 농기구 모듈)을 포함한다. For example, the agricultural tool module 170 includes a farming tool module for leveling the land such as a hoe or a plow (farming tool module No. 1), a farming tool module for weeding work such as a sickle or a lawnmower (farming tool module No. 2), secateurs or an electric saw. It includes a farming tool module (No. 3 farming tool module) for pruning work by cutting tree branches, and a farming tool module (No. 4 farming tool module) for digging or covering the ground using a shovel or tongs.

다만 상술한 농기 모듈은 예시적으로 기재된 것일 뿐, 더 다양한 기능을 수행하는 농기구 모듈이 더 포함될 수 있다.However, the above-mentioned agricultural equipment module is merely described as an example, and further agricultural equipment modules that perform more diverse functions may be included.

여기서 상기 농기구 모듈(170)에 포함된 각 농기구 모듈은, 해당 농기구 모듈이 수행할 작업의 특성에 따라 상기 스마트 팜 자율주행 로봇 시스템의 일 측면(예 : 바닥면, 상면, 전면, 후면)에 미리 부착되거나, 일괄적으로 본체에 휴대하고 있다가 필요한 농기구 모듈이 선택(또는 전환)되면 지정된 위치에 장착(또는 부착)하여 사용할 수 있다.Here, each farming equipment module included in the farming equipment module 170 is preliminarily placed on one side (e.g., bottom, top, front, rear) of the smart farm autonomous robot system according to the characteristics of the work to be performed by the farming equipment module. It can be attached or carried on the main body and used by installing (or attaching) it to a designated location when the required agricultural equipment module is selected (or switched).

이하 상기 스마트 팜 자율주행 로봇 시스템의 제어 방법에 대해서 설명한다.Hereinafter, the control method of the smart farm autonomous robot system will be described.

-제1 실시 예--First Embodiment-

도 3은 본 발명의 제1 실시 예에 따른 스마트 팜 자율주행 로봇 시스템(이하 간단히 로봇 시스템으로 기재할 수 있음)의 제어 방법을 설명하기 위한 흐름도이다.Figure 3 is a flowchart for explaining a control method of a smart farm autonomous robot system (hereinafter simply referred to as a robot system) according to the first embodiment of the present invention.

도 3을 참조하면, 프로세서(140)는 본 실시 예에 따른 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서(S101), 카메라를 통해 획득한 영상을 분석하여(S102), 노지에 파인 땅이 있는지 감지한다(S103).Referring to FIG. 3, the processor 140 analyzes the image acquired through the camera while the robot system according to this embodiment travels the path of the open-air smart farm (S101), and determines whether the dug-out ground is in the open ground (S102). Detect whether it exists (S103).

예컨대 노지의 특성상 자연 조건(예 : 바람, 비 등)의 영향을 받아 땅이 파일 수 있다.For example, due to the nature of open fields, the ground may be damaged by natural conditions (e.g. wind, rain, etc.).

상기 감지(S103) 결과, 노지에 파인 땅이 감지될 경우(S103의 예), 상기 프로세서(140)는 노지에 파인 땅이 있음을 사용자에게 알리고(즉, 사용자의 외부장치를 통해 노지에 파인 땅이 있음을 알리고), 사용자가 땅 고르기 작업을 수행하도록 허가 할 경우(S104의 예), 상기 땅 고르기 작업을 수행하는데 적합한 해당 농기구 모듈(예 : 1번 농기구 모듈)을 선택(또는 전환)하거나 장착(또는 부착)한 후(S105), 상기 로봇 시스템을 땅 파인 위치로 이동시킨다(S106).As a result of the detection (S103), when dug-up land is detected in the open field (example of S103), the processor 140 notifies the user that there is dug-up land in the open field (i.e., the dug-up land in the open field is provided through the user's external device). informing the user that there is a land leveling operation), if the user is permitted to perform land leveling work (example of S104), select (or switch) or install the corresponding farm equipment module (e.g. farm equipment module No. 1) suitable for performing the land leveling work. After (or attaching) (S105), the robot system is moved to a position dug into the ground (S106).

상기 로봇 시스템이 땅 파인 위치로 이동하면, 상기 프로세서(140)는 해당 농기구 모듈(예 : 1번 농기구 모듈)을 이용하여 땅 고르기 작업을 수행하고(S107), 상기 땅 고르기 작업이 완료되면(S108의 예), 작업 전/후에 촬영된 영상을 사용자에게 알리고(즉, 사용자의 외부장치를 통해 작업이 완료되었음을 알리고), 상기 메모리 모듈(130)의 데이터베이스에 기록을 남긴다(S109).When the robot system moves to the dug position, the processor 140 performs a ground leveling task using the corresponding farm equipment module (e.g., farm equipment module No. 1) (S107), and when the land leveling work is completed (S108) example), the images captured before and after the work are notified to the user (i.e., the work is completed through the user's external device), and a record is left in the database of the memory module 130 (S109).

-제2 실시 예--Second Embodiment-

도 4는 본 발명의 제2 실시 예에 따른 스마트 팜 자율주행 로봇 시스템(이하 간단히 로봇 시스템으로 기재할 수 있음)의 제어 방법을 설명하기 위한 흐름도이다.Figure 4 is a flowchart for explaining a control method of a smart farm autonomous robot system (hereinafter simply referred to as a robot system) according to a second embodiment of the present invention.

도 4를 참조하면, 프로세서(140)는 본 실시 예에 따른 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서(S201), 카메라를 통해 획득한 영상을 분석하여(S202), 노지에 잡초(풀)가 지정된 기준 이상 자랐는지 감지한다(S203).Referring to FIG. 4, the processor 140 analyzes the image acquired through the camera while the robot system according to this embodiment travels the path of the open-air smart farm (S201) and detects weeds (grass) in the open field (S202). ) detects whether it has grown beyond the specified standard (S203).

상기 감지(S203) 결과, 노지에 자란 잡초(풀)가 감지될 경우(S203의 예), 상기 프로세서(140)는 노지에 잡초(풀)가 자랐음을 사용자에게 알리고(즉, 사용자의 외부장치를 통해 노지에 잡초가 자라고 있음을 알리고), 사용자가 제초 작업(잡초 제거 작업)을 수행하도록 허가 할 경우(S204의 예), 상기 제초 작업을 수행하는데 적합한 해당 농기구 모듈(예 : 2번 농기구 모듈)을 선택(또는 전환)하거나 장착(또는 부착)한 후(S205), 상기 로봇 시스템을 제초 작업할 위치로 이동시킨다(S206).As a result of the detection (S203), when weeds (grass) growing in the open field are detected (example of S203), the processor 140 notifies the user that weeds (grass) have grown in the open field (i.e., the user's external device (notifies that weeds are growing in the field), and when the user is permitted to perform weeding work (weed removal work) (example of S204), the corresponding agricultural equipment module suitable for performing the weeding work (e.g., agricultural equipment module No. 2) ) is selected (or switched) or mounted (or attached) (S205), and then the robot system is moved to a location for weeding work (S206).

상기 로봇 시스템이 제초 작업할 위치로 이동하면, 상기 프로세서(140)는 해당 농기구 모듈(예 : 2번 농기구 모듈)을 이용하여 제초 작업을 수행하고(S207), 상기 제초 작업이 완료되면(S208의 예), 작업 전/후에 촬영된 영상을 사용자에게 알리고(즉, 사용자의 외부장치를 통해 작업이 완료되었음을 알리고), 상기 메모리 모듈(130)의 데이터베이스에 기록을 남긴다(S209).When the robot system moves to a position to perform weeding work, the processor 140 performs weeding work using the corresponding farming tool module (e.g., farm tool module No. 2) (S207), and when the weeding work is completed (S208) Example), images captured before and after the work are notified to the user (i.e., notified that the work has been completed through the user's external device), and a record is left in the database of the memory module 130 (S209).

-제3 실시 예--Third Embodiment-

도 5는 본 발명의 제3 실시 예에 따른 스마트 팜 자율주행 로봇 시스템(이하 간단히 로봇 시스템으로 기재할 수 있음)의 제어 방법을 설명하기 위한 흐름도이다.Figure 5 is a flowchart for explaining a control method of a smart farm autonomous robot system (hereinafter simply referred to as a robot system) according to a third embodiment of the present invention.

도 5를 참조하면, 프로세서(140)는 본 실시 예에 따른 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서(S301), 카메라를 통해 획득한 영상을 분석하여, 노지형 스마트 팜에 식재된 나무의 나뭇가지의 모양을 분석한다(S302).Referring to FIG. 5, the processor 140 analyzes images acquired through a camera while the robot system according to this embodiment travels the path of the open-field smart farm (S301), and determines the trees planted in the open-field smart farm. Analyze the shape of the tree branches (S302).

상기 나뭇가지의 모양을 분석(S203)한 결과, 부러진 나뭇가지 또는 전지할 나뭇가지가 감지될 경우(S303의 예), 상기 프로세서(140)는 상기 나뭇가지가 상기 로봇 시스템에 의해(즉, 로봇 시스템에 장착된 농기구 모듈에 의해) 자동으로 전지 가능한 나뭇가지인지 체크한다(S304).As a result of analyzing the shape of the tree branch (S203), if a broken tree branch or a tree branch to be pruned is detected (example of S303), the processor 140 determines that the tree branch is moved by the robot system (i.e., the robot Automatically checks whether a tree branch can be pruned (by the agricultural equipment module mounted on the system) (S304).

상기 체크(S304) 결과, 상기 나뭇가지가 자동 전지 가능한 나뭇가지인 경우(S304의 예), 전지할 나뭇가지가 있음을 사용자에게 알리고(즉, 사용자의 외부장치를 통해 전지할 나뭇가지가 있음을 알리고), 사용자가 전지 작업을 수행하도록 허가 할 경우(S305), 상기 전지 작업을 수행하는데 적합한 해당 농기구 모듈(예 : 3번 농기구 모듈)을 선택(또는 전환)하거나 장착(또는 부착)한 후(S306), 상기 로봇 시스템을 제초 작업할 위치로 이동한 후 해당 농기구 모듈(예 : 3번 농기구 모듈)을 이용하여 전지 작업을 수행하고(S307), 상기 전지 작업이 완료되면(S308의 예), 작업 전/후에 촬영된 영상을 사용자에게 알리고(즉, 사용자의 외부장치를 통해 작업이 완료되었음을 알리고), 상기 메모리 모듈(130)의 데이터베이스에 기록을 남긴다(S309).As a result of the check (S304), if the tree branch is a tree branch that can be automatically pruned (example of S304), the user is notified that there is a tree branch to be pruned (i.e., that there is a tree branch to be pruned through the user's external device). inform), when the user is permitted to perform pruning work (S305), after selecting (or switching) or installing (or attaching) the relevant agricultural equipment module (e.g., farm equipment module No. 3) suitable for performing the pruning work (S305) S306), move the robot system to a location for weeding work, and then perform pruning work using the corresponding farm equipment module (e.g., farm tool module No. 3) (S307). When the pruning work is completed (example in S308), The images captured before and after the work are notified to the user (that is, notified that the work has been completed through the user's external device), and a record is left in the database of the memory module 130 (S309).

한편 상기 체크(S304) 결과, 상기 나뭇가지가 자동 전지 가능한 나뭇가지가 아닌 경우(S304의 아니오), 해당 위치(즉, 전지할 나뭇가지가 있는 나무의 위치)를 상기 메모리 모듈(130)에 지도(맵) 형태로 기록(저장)하고, 상기 기록(저장)한 위치를 사용자에게 안내하여(S310) 사용자가 전지 작업을 수행할 수 있도록 한다.Meanwhile, as a result of the check (S304), if the tree branch is not a tree branch capable of automatic pruning (No in S304), the corresponding location (i.e., the location of the tree with the branch to be pruned) is mapped to the memory module 130. It is recorded (saved) in a (map) form, and the recorded (saved) location is guided to the user (S310) so that the user can perform pruning work.

-제4 실시 예--Fourth Embodiment-

도 6은 본 발명의 제4 실시 예에 따른 스마트 팜 자율주행 로봇 시스템(이하 간단히 로봇 시스템으로 기재할 수 있음)의 제어 방법을 설명하기 위한 흐름도이다.Figure 6 is a flowchart for explaining a control method of a smart farm autonomous robot system (hereinafter simply referred to as a robot system) according to a fourth embodiment of the present invention.

도 6을 참조하면, 프로세서(140)는 본 실시 예에 따른 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서(S401), 카메라를 통해 획득한 영상을 분석하여, 노지형 스마트 팜에 식재된 나무의 나뭇가지에 부착된(매달린) 과일의 형태(예 : 모양과 색깔)을 분석한다(S402).Referring to FIG. 6, the processor 140 analyzes images acquired through a camera while the robot system according to this embodiment travels the path of the open-field smart farm (S401), and determines the trees planted in the open-field smart farm. Analyze the form (e.g. shape and color) of the fruit attached (hanging) to the tree branch (S402).

상기 나뭇가지에 매달린 과일의 형태(예 : 모양과 색깔)를 분석(S203)한 결과, 과일의 현재 생장 시점에서 봉투에 싸이지 않은 과일이 감지될 경우(S403의 예), 상기 프로세서(140)는 해당 위치(즉, 봉투에 싸이지 않은 과일이 매달린 나무의 위치)를 상기 메모리 모듈(130)에 지도(맵) 형태로 기록(저장)하고(S404), 상기 기록(저장)한 위치를 사용자에게 안내하여(S405) 사용자가 과일 봉투 작업(즉, 봉투로 과일을 싸는 작업)을 수행할 수 있도록 한다(S406).As a result of analyzing the shape (e.g., shape and color) of the fruit hanging on the tree branch (S203), if unbagged fruit is detected at the current growth point of the fruit (example of S403), the processor 140 records (saves) the location (i.e., the location of the tree on which unbagged fruit hangs) in the form of a map in the memory module 130 (S404), and records (stores) the recorded (stored) location by the user. (S405) so that the user can perform the fruit bag task (i.e., wrapping fruit in a bag) (S406).

상기와 같이 사용자가 과일 봉투 작업(즉, 봉투로 과일을 싸는 작업)을 수행하면 상기 지도(맵)에 기록된 정보와 비교(대조)하여 모든 과일에 대하여 과일 봉투 작업(즉, 봉투로 과일을 싸는 작업)이 완료되는지 체크하고(S407), 이에 따라 상기 지도(맵)에 기록된 모든 과일에 대하여 과일 봉투 작업(즉, 봉투로 과일을 싸는 작업)이 완료되면(S407의 예), 작업 전/후에 촬영된 영상을 사용자에게 알리고(즉, 사용자의 외부장치를 통해 작업이 완료되었음을 알리고), 상기 메모리 모듈(130)의 데이터베이스에 기록을 남긴다(S408).As described above, when the user performs the fruit bag task (i.e., wrapping fruit in a bag), the information recorded in the map is compared (contrasted) and the fruit bag task (i.e., wrapping fruit in a bag) is performed for all fruits. Check whether the wrapping task is completed (S407), and if the fruit bag task (i.e., the task of wrapping fruit in a bag) is completed for all fruits recorded on the map (example of S407), before the task /Afterward, the captured image is notified to the user (i.e., notified that the task has been completed through the user's external device), and a record is left in the database of the memory module 130 (S408).

-제5 실시 예--Fifth Embodiment-

도 7은 본 발명의 제5 실시 예에 따른 스마트 팜 자율주행 로봇 시스템(이하 간단히 로봇 시스템으로 기재할 수 있음)의 제어 방법을 설명하기 위한 흐름도이다.Figure 7 is a flowchart for explaining a control method of a smart farm autonomous robot system (hereinafter simply referred to as a robot system) according to the fifth embodiment of the present invention.

도 7을 참조하면, 프로세서(140)는 본 실시 예에 따른 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서(S501), 카메라를 통해 획득한 영상을 분석하여(S502), 땅에 떨어진 과일이 있는지 감지하고(S503), 상기 감지된 땅에 떨어진 과일이 썩거나 과육이 파인 과일(즉, 상품성이 없거나 먹을 수 없는 과일)인지 체크한다(S504).Referring to FIG. 7, the processor 140 analyzes the image acquired through the camera while the robot system according to this embodiment travels the path of the open-air smart farm (S501) and determines whether fruit that has fallen on the ground is detected (S502). It detects whether the detected fruit has fallen on the ground (S503), and checks whether the detected fruit is rotten or has its flesh broken (i.e., unmarketable or inedible fruit) (S504).

상기 체크(S504) 결과, 땅에 떨어진 과일이 썩거나 과육이 파인 과일인 경우(S504의 예), 미리 설정된 알고리즘에 따라, 상기 프로세서(140)는 상기 땅에 떨어진 과일을 땅에 파묻기 위한 작업(즉, 과일 파묻기 작업)을 수행하는데 적합한 해당 농기구 모듈(예 : 4번 농기구 모듈)을 선택(또는 전환)하거나 장착(또는 부착)한 후(S506), 상기 로봇 시스템을 과일 파묻기 작업할 위치로 이동한 후 해당 농기구 모듈(예 : 4번 농기구 모듈)을 이용하여 과일 파묻기 작업을 수행하고(S506), 상기 과일 파묻기 작업이 완료되면(S507의 예), 작업 전/후에 촬영된 영상을 사용자에게 알리고(즉, 사용자의 외부장치를 통해 작업이 완료되었음을 알리고), 상기 메모리 모듈(130)의 데이터베이스에 기록을 남긴다(S508).As a result of the check (S504), if the fruit that fell on the ground is rotten or has a hollow fruit (example of S504), according to a preset algorithm, the processor 140 performs a task to bury the fruit that fell on the ground. After selecting (or switching) or mounting (or attaching) the corresponding farm tool module (e.g., farm tool module No. 4) suitable for performing the fruit burying task (i.e., fruit burying task) (S506), the robot system is used to perform the fruit burying task. After moving to the location, a fruit burying task is performed using the relevant farming tool module (e.g., farm tool module No. 4) (S506). When the fruit burying task is completed (example in S507), photos taken before/after the work are taken. The image is notified to the user (i.e., notified that the task has been completed through the user's external device), and a record is left in the database of the memory module 130 (S508).

-제6 실시 예--Sixth Embodiment-

도 8은 본 발명의 제6 실시 예에 따른 스마트 팜 자율주행 로봇 시스템(이하 간단히 로봇 시스템으로 기재할 수 있음)의 제어 방법을 설명하기 위한 흐름도이다.Figure 8 is a flowchart for explaining a control method of a smart farm autonomous robot system (hereinafter simply referred to as a robot system) according to the sixth embodiment of the present invention.

도 8을 참조하면, 프로세서(140)는 본 실시 예에 따른 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서(S601), 카메라를 통해 획득한 영상을 분석하여, 노지형 스마트 팜에 식재된 나무(예 : 과일나무)의 나뭇가지에 부착된(매달린) 과일의 형태(예 : 모양과 색깔)을 분석한다(S602).Referring to FIG. 8, the processor 140 analyzes images acquired through a camera while the robot system according to this embodiment travels the path of the open-field smart farm (S601), and determines the trees planted in the open-field smart farm. Analyze the form (e.g. shape and color) of fruit attached (hanging) to a branch of a fruit tree (S602).

상기 나뭇가지에 매달린 과일의 형태(예 : 모양과 색깔)를 분석(S602)한 결과, 썩은 과일, 과육이 파인 과일, 또는 익은 과일 중 어느 하나일 경우(S603의 예), 상기 프로세서(140)는 해당 위치(즉, 썩은 과일, 과육이 파인 과일, 또는 익은 과일이 매달린 나무의 위치)를 상기 메모리 모듈(130)에 지도(맵) 형태로 기록(저장 또는 업데이트)하고(S604), 상기 기록(저장)한 위치를 사용자에게 안내하여(S605) 사용자가 과일 제거 작업 또는 과일 수확 작업을 수행할 수 있도록 한다(S606).As a result of analyzing the shape (e.g., shape and color) of the fruit hanging on the tree branch (S602), if it is one of rotten fruit, fruit with peeled flesh, or ripe fruit (example of S603), the processor 140 records (stores or updates) the location (i.e., the location of the rotten fruit, the peeled fruit, or the tree on which the ripe fruit hangs) in the form of a map in the memory module 130 (S604), and the record The (saved) location is guided to the user (S605) so that the user can perform fruit removal or fruit harvesting (S606).

상기와 같이 사용자가 과일 제거 작업 또는 과일 수확 작업을 수행하면, 상기 지도(맵)에 기록된 정보와 비교(대조)하여 종류별 모든 과일(즉, 썩은 과일, 과육이 파인 과일, 또는 익은 과일)에 대하여 각기 해당하는 작업이 완료되는지 체크하고(S607), 이에 따라 상기 지도(맵)에 기록된 종류별 모든 과일에 대하여 각각 해당하는 작업이 완료되면(S607의 예), 작업 전/후에 촬영된 영상을 사용자에게 알리고(즉, 사용자의 외부장치를 통해 작업이 완료되었음을 알리고), 상기 메모리 모듈(130)의 데이터베이스에 기록을 남긴다(S608).When the user performs fruit removal or fruit harvesting as described above, the information recorded on the map is compared and compared to all fruits by type (i.e., rotten fruit, peeled fruit, or ripe fruit). It is checked whether the corresponding task is completed (S607), and when the corresponding task is completed for all fruits of each type recorded on the map (example of S607), the images taken before and after the task are recorded. Notifies the user (that is, notifies the user that the task has been completed through the user's external device) and leaves a record in the database of the memory module 130 (S608).

상기와 같이 본 실시 예는 스마트 팜 자율주행 로봇 시스템이 사용자를 대신하여, 온실형 스마트 팜 대비 저렴한 비용의 노지형 스마트 팜을 자율주행으로 이동하면서, 자연 상태에 노출된 노지와 이 노지형 스마트 팜에서 생장하고 있는 농작물(예 : 과일나무)에 대한 관리를 수행할 수 있도록 함으로써 사용자의 편의성을 향상시키는 효과가 있다.As described above, in this embodiment, the smart farm self-driving robot system autonomously moves the open-air smart farm, which is cheaper than the greenhouse-type smart farm, on behalf of the user, and the open-air smart farm is exposed to natural conditions. It has the effect of improving user convenience by allowing management of crops (e.g. fruit trees) growing in the system.

이상으로 본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 기술적 보호범위는 아래의 특허청구범위에 의해서 정하여져야 할 것이다. 또한 본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍 가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.As described above, the present invention has been described with reference to the embodiments shown in the drawings, but these are merely illustrative, and various modifications and equivalent embodiments can be made by those skilled in the art. You will understand the point. Therefore, the scope of technical protection of the present invention should be determined by the scope of the patent claims below. Implementations described herein may also be implemented as, for example, a method or process, device, software program, data stream, or signal. Although discussed only in the context of a single form of implementation (eg, only as a method), implementations of the features discussed may also be implemented in other forms (eg, devices or programs). The device may be implemented with appropriate hardware, software, firmware, etc. The method may be implemented in a device such as a processor, which generally refers to a processing device that includes a computer, microprocessor, integrated circuit, or programmable logic device. Processors also include communication devices such as computers, cell phones, portable/personal digital assistants (“PDAs”) and other devices that facilitate communication of information between end-users.

110 : 센서 모듈
120 : 통신 모듈
130 : 메모리 모듈
140 : 프로세서
150 : 구동 모듈
151 : 무한궤도형 바퀴
160 : 바람 발생 모듈
170 : 농기구 모듈
110: sensor module
120: communication module
130: memory module
140: processor
150: driving module
151: Caterpillar wheel
160: Wind generation module
170: Farm equipment module

Claims (20)

비전카메라와 위치 센서를 포함하고, 스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 관리에 필요한 정보들을 검출하는 센서 모듈;
무선 통신 방식으로 외부 장치와 통신하며, 상기 스마트 팜 자율주행 로봇 시스템으로부터 각종 정보를 전달하고, 상기 스마트 팜 자율주행 로봇 시스템을 제어하기 위한 명령이나 데이터를 전송받는 통신 모듈;
상기 스마트 팜 자율주행 로봇 시스템의 동작을 전반적으로 제어하며, 상기 센서 모듈을 통해 검출된 정보들을 이용하여 노지형 스마트 팜의 상태 및 농작물의 생장 정보를 획득하며, 노지형 스마트 팜의 노지를 최적 상태로 관리하고, 상기 노지형 스마트 팜의 농작물이 안전하게 성장할 수 있도록 관리하는 프로세서; 및
상기 프로세서의 제어에 따라, 상기 스마트 팜 자율주행 로봇 시스템의 무한궤도형 바퀴를 구동하여, 노지형 스마트 팜의 경로를 주행하게 하는 구동 모듈;을 포함하는 것을 특징으로 하는 스마트 팜 자율주행 로봇 시스템.
A sensor module that includes a vision camera and a location sensor and detects information necessary for the smart farm self-driving robot system to manage the open-air smart farm;
A communication module that communicates with an external device through wireless communication, transmits various information from the smart farm autonomous robot system, and receives commands or data for controlling the smart farm autonomous robot system;
It controls the overall operation of the smart farm self-driving robot system, uses the information detected through the sensor module to obtain the status of the open-air smart farm and crop growth information, and maintains the field of the open-air smart farm in optimal condition. A processor that manages and manages crops in the open-field smart farm to grow safely; and
A smart farm self-driving robot system comprising a driving module that drives the tracked wheels of the smart farm self-driving robot system under the control of the processor to drive the path of the open-air smart farm.
제 1항에 있어서, 상기 스마트 팜 자율주행 로봇 시스템의 구동을 위한 소프트웨어나 데이터, 및 상기 스마트 팜 자율주행 로봇 시스템의 관리 기능 수행 중에 발생하는 데이터를 저장하는 메모리 모듈;을 더 포함하는 것을 특징으로 하는 스마트 팜 자율주행 로봇 시스템.
The method of claim 1, further comprising a memory module that stores software or data for driving the smart farm autonomous robot system and data generated while performing management functions of the smart farm autonomous robot system. Smart farm self-driving robot system.
제 1항에 있어서, 상기 프로세서는,
미리 학습된 정보에 기초하여, 상기 비전카메라를 통해 촬영된 영상을 분석하여, 노지의 형태, 노지에서 자라는 잡초, 노지에 떨어진 과일이나 나뭇가지, 노지에서 자라는 야채 및 나무의 형태, 나무나 나뭇가지의 형태, 과일의 형태, 나뭇잎의 형태, 및 색깔을 구분하는 것을 특징으로 하는 스마트 팜 자율주행 로봇 시스템.
The method of claim 1, wherein the processor:
Based on information learned in advance, the images captured through the vision camera are analyzed to determine the shape of the open field, weeds growing in the open field, fruits or tree branches that have fallen in the open field, the shape of vegetables and trees growing in the open field, and trees or twigs. A smart farm autonomous robot system characterized by distinguishing the shape of fruit, shape of leaves, and color.
제 1항에 있어서,
상기 프로세서의 제어에 따라, 상기 센서 모듈의 비전카메라를 이용해 노지의 상태, 나무나 농작물의 상태를 정확히 검출하기 위하여, 촬영 방향으로 바람을 분사함으로써 나뭇가지나 나뭇잎이 카메라의 전방을 가리지 않도록 비켜나게 하는 바람 발생 모듈;을 더 포함하는 것을 특징으로 하는 스마트 팜 자율주행 로봇 시스템.
According to clause 1,
Under the control of the processor, in order to accurately detect the state of the field and the state of trees or crops using the vision camera of the sensor module, wind is sprayed in the shooting direction to prevent tree branches or leaves from blocking the front of the camera. A smart farm autonomous robot system further comprising a wind generation module.
제 1항에 있어서,
상기 프로세서의 제어에 따라, 상기 스마트 팜 자율주행 로봇 시스템의 일 측면에 장착되는 복수의 농기구 모듈 중 어느 하나를 선택하여 해당 농기구 모듈에 대응하는 작업을 수행하기 위한 농기구 모듈;을 더 포함하는 것을 특징으로 하는 스마트 팜 자율주행 로봇 시스템.
According to clause 1,
The feature further includes a farming equipment module for selecting one of a plurality of farming equipment modules mounted on one side of the smart farm autonomous robot system under the control of the processor and performing a task corresponding to the farming equipment module. A smart farm self-driving robot system.
제 5항에 있어서, 상기 농기구 모듈은,
괭이나 쟁기와 같이 땅을 고르기 위한 농기구 모듈;
낫이나 예초기와 같이 제초 작업을 위한 농기구 모듈;
전지가위나 전동 톱을 이용하여 나뭇가지를 자르는 전지 작업을 위한 농기구 모듈; 및
삽이나 집게를 이용하여 땅을 파거나 덮는 작업을 위한 농기구 모듈; 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 스마트 팜 자율주행 로봇 시스템.
The method of claim 5, wherein the agricultural equipment module,
A farming tool module for leveling the land, such as a hoe or plow;
Agricultural equipment modules for weeding operations, such as scythes or mowers;
A farm tool module for pruning, cutting tree branches using pruning shears or an electric saw; and
A farm implement module for digging and covering with a shovel or tongs; A smart farm autonomous robot system comprising at least one of the following:
제 1항에 있어서, 상기 프로세서는,
스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하여, 노지에 파인 땅이 있는지 감지하고,
노지에 파인 땅이 감지될 경우, 노지에 파인 땅이 있음을 사용자에게 알리고, 사용자의 허가를 받아 땅 고르기 작업을 수행하는데 적합한 해당 농기구 모듈을 선택하거나 장착하여 땅 고르기 작업을 수행하고,
상기 땅 고르기 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 것을 특징으로 하는 스마트 팜 자율주행 로봇 시스템.
The method of claim 1, wherein the processor:
As the smart farm self-driving robot system drives the path of the open-air smart farm, it analyzes images acquired through a vision camera to detect whether there is a hollow ground in the open ground,
When dug up land is detected in the open field, the user is notified that there is dug up land in the open field, and, with the user's permission, the appropriate agricultural equipment module suitable for performing the land leveling work is selected or installed to perform the land leveling work,
When the land leveling work is completed, the smart farm autonomous robot system is characterized in that it informs the user of the images taken before and after the work and leaves a record in the database of the memory module.
제 1항에 있어서, 상기 프로세서는,
스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하여, 노지에 잡초가 지정된 기준 이상 자랐는지 감지하고,
노지에 자란 잡초가 감지될 경우, 노지에 잡초가 자라고 있음을 사용자에게 알리고, 사용자의 허가를 받아 제초 작업을 수행하는데 적합한 해당 농기구 모듈을 선택하거나 장착하여 제초 작업을 수행하고,
상기 제초 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 것을 특징으로 하는 스마트 팜 자율주행 로봇 시스템.
The method of claim 1, wherein the processor:
As the smart farm autonomous robot system drives the path of the open-field smart farm, it analyzes images acquired through a vision camera to detect whether weeds have grown beyond the specified standard in the open field.
When weeds growing in the open field are detected, the user is notified that weeds are growing in the open field, and, with the user's permission, the appropriate agricultural equipment module suitable for performing the weeding work is selected or installed to perform the weeding work.
When the weeding operation is completed, the smart farm autonomous robot system is characterized in that it notifies the user of the images taken before and after the operation and leaves a record in the database of the memory module.
제 1항에 있어서, 상기 프로세서는,
스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하여, 노지형 스마트 팜에 식재된 나무의 나뭇가지의 모양을 분석하고,
상기 나뭇가지의 모양을 분석할 결과, 부러진 나뭇가지 또는 전지할 나뭇가지로 감지될 경우, 상기 나뭇가지가 상기 스마트 팜 자율주행 로봇 시스템에 장착된 농기구 모듈에 의해 자동 전지 가능한 나뭇가지인지 체크하고,
상기 나뭇가지가 자동 전지 가능한 나뭇가지인 경우, 전지할 나뭇가지가 있음을 사용자에게 알리고, 사용자의 허가를 받아 전지 작업을 수행하는데 적합한 해당 농기구 모듈을 선택하거나 장착하여 전자 작업을 수행하고,
상기 전지 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 것을 특징으로 하는 스마트 팜 자율주행 로봇 시스템.
The method of claim 1, wherein the processor:
As the smart farm autonomous robot system drives the path of the open-air smart farm, it analyzes images acquired through a vision camera to analyze the shape of the branches of the trees planted in the open-air smart farm.
As a result of analyzing the shape of the tree branch, if it is detected as a broken tree branch or a tree branch to be pruned, it is checked whether the tree branch is capable of automatic pruning by a farming equipment module mounted on the smart farm autonomous robot system,
If the tree branch is a tree branch capable of automatic pruning, inform the user that there is a tree branch to be pruned, obtain permission from the user, select or install a corresponding agricultural equipment module suitable for performing the pruning task, and perform the electronic task,
When the pruning work is completed, the smart farm autonomous robot system is characterized in that it notifies the user of the images taken before and after the work and leaves a record in the database of the memory module.
제 9항에 있어서, 상기 프로세서는,
상기 나뭇가지가 자동 전지 가능한 나뭇가지가 아닌 경우,
전지할 나뭇가지가 있는 나무의 위치를 메모리 모듈에 지도 형태로 기록하고, 상기 기록한 위치를 사용자에게 안내하여 사용자가 전지 작업을 수행할 수 있도록 하는 것을 특징으로 하는 스마트 팜 자율주행 로봇 시스템.
The method of claim 9, wherein the processor:
If the above tree branch is not a tree branch capable of automatic pruning,
A smart farm autonomous robot system that records the location of trees with branches to be pruned in the form of a map on a memory module and guides the user to the recorded location so that the user can perform pruning work.
제 1항에 있어서, 상기 프로세서는,
스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하여, 노지형 스마트 팜에 식재된 나무의 나뭇가지에 매달린 과일의 형태와 색깔을 분석하고,
상기 나뭇가지에 매달린 과일의 현재 생장 시점에서 봉투에 싸이지 않은 과일이 감지될 경우, 상기 봉투에 싸이지 않은 과일이 매달린 나무의 위치를 메모리 모듈에 지도 형태로 기록하고, 상기 기록한 위치를 사용자에게 안내하여 사용자가 과일 봉투 작업을 수행할 수 있도록 하고,
상기 사용자가 과일 봉투 작업을 수행하면 상기 지도에 기록된 정보와 비교하여 모든 과일에 대하여 과일 봉투 작업이 완료되는지 체크하여, 상기 지도에 기록된 모든 과일에 대하여 과일 봉투 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 것을 특징으로 하는 스마트 팜 자율주행 로봇 시스템.
The method of claim 1, wherein the processor:
As the smart farm self-driving robot system travels the route of the open-air smart farm, it analyzes images acquired through a vision camera to analyze the shape and color of the fruit hanging from the branches of the trees planted in the open-air smart farm.
If unbagged fruit is detected at the current growth point of the fruit hanging from the tree branch, the location of the tree where the unbagged fruit hangs is recorded in the form of a map in the memory module, and the recorded location is sent to the user. Guidance so that the user can perform the fruit bag task,
When the user performs a fruit bag task, it is checked whether the fruit bag task is completed for all fruits by comparing it with the information recorded on the map, and when the fruit bag task is completed for all fruits recorded on the map, before/after the task. A smart farm self-driving robot system that notifies the user of the captured video and records it in the memory module database.
제 1항에 있어서, 상기 프로세서는,
스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하여, 땅에 떨어진 과일이 있는지 감지하고,
상기 땅에 떨어진 과일이 썩거나 과육이 파인 과일인 경우, 상기 땅에 떨어진 과일을 땅에 파묻기 위한 작업을 수행하는데 적합한 해당 농기구 모듈을 선택하거나 장착하여 과일 파묻기 작업을 수행하고,
상기 과일 파묻기 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 것을 특징으로 하는 스마트 팜 자율주행 로봇 시스템.
The method of claim 1, wherein the processor:
As the smart farm autonomous robot system drives the path of the open-air smart farm, it analyzes images acquired through a vision camera and detects whether there are any fruits that have fallen on the ground.
If the fruit that has fallen on the ground is rotten or has a hollowed-out flesh, perform the fruit burying task by selecting or installing a corresponding agricultural tool module suitable for performing the task of burying the fruit that has fallen on the ground,
When the fruit burying task is completed, the smart farm autonomous robot system is characterized in that it informs the user of the images taken before and after the task and leaves a record in the database of the memory module.
제 1항에 있어서, 상기 프로세서는,
스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하여, 노지형 스마트 팜에 식재된 나무의 나뭇가지에 매달린 과일의 형태와 색깔을 분석하고,
상기 나뭇가지에 매달린 과일이 썩은 과일, 과육이 파인 과일, 또는 익은 과일 중 어느 하나일 경우, 상기 해당 과일이 매달린 나무의 위치를 메모리 모듈에 지도 형태로 기록하고, 상기 기록한 위치를 사용자에게 안내하여 사용자가 과일 제거 작업 또는 과일 수확 작업을 수행할 수 있게 하고,
상기 사용자가 과일 제거 작업 또는 과일 수확 작업을 수행하면, 상기 지도에 기록된 정보와 비교하여 종류별 모든 과일에 대하여 각기 해당하는 작업이 완료되는지 체크하고,
상기 지도에 기록된 종류별 모든 과일에 대하여 각각 해당하는 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 것을 특징으로 하는 스마트 팜 자율주행 로봇 시스템.
The method of claim 1, wherein the processor:
As the smart farm self-driving robot system travels the route of the open-air smart farm, it analyzes images acquired through a vision camera to analyze the shape and color of the fruit hanging from the branches of the trees planted in the open-air smart farm.
If the fruit hanging on the tree branch is a rotten fruit, a fruit with peeled flesh, or a ripe fruit, the location of the tree on which the fruit is hanging is recorded in the form of a map in a memory module, and the recorded location is guided to the user. Allows the user to perform fruit removal tasks or fruit harvesting tasks,
When the user performs a fruit removal task or a fruit harvest task, it is compared with the information recorded on the map to check whether the corresponding task is completed for all fruits of each type,
A smart farm autonomous robot system, characterized in that when the corresponding task is completed for all fruits of each type recorded on the map, the images captured before and after the task are notified to the user and a record is left in the database of the memory module.
스마트 팜 자율주행 로봇 시스템의 프로세서가,
상기 스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하여, 노지에 파인 땅이 있는지 감지하는 단계;
노지에 파인 땅이 감지될 경우, 노지에 파인 땅이 있음을 사용자에게 알리고, 사용자의 허가를 받아 땅 고르기 작업을 수행하는데 적합한 해당 농기구 모듈을 선택하거나 장착하여 땅 고르기 작업을 수행하는 단계; 및
상기 땅 고르기 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 단계;를 포함하는 것을 특징으로 하는 스마트 팜 자율주행 로봇 시스템의 제어 방법.
The processor of the smart farm autonomous robot system,
Analyzing images acquired through a vision camera while the smart farm autonomous robot system drives the path of the open-air smart farm, and detecting whether there is dug ground in the open ground;
When dug up land is detected in the open field, notifying the user that there is dug up land in the open field, receiving permission from the user, and performing the land leveling work by selecting or installing a corresponding agricultural equipment module suitable for performing the land leveling work; and
When the land leveling work is completed, notifying the user of the images taken before and after the work and leaving a record in the database of the memory module. A control method of a smart farm autonomous robot system comprising a step.
제 14항에 있어서, 상기 스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하는 단계 이후,
상기 프로세서가, 노지에 잡초가 지정된 기준 이상 자랐는지 감지하는 단계;
노지에 자란 잡초가 감지될 경우, 노지에 잡초가 자라고 있음을 사용자에게 알리고, 사용자의 허가를 받아 제초 작업을 수행하는데 적합한 해당 농기구 모듈을 선택하거나 장착하여 제초 작업을 수행하는 단계; 및
상기 제초 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 단계;를 더 포함하는 것을 특징으로 하는 스마트 팜 자율주행 로봇 시스템의 제어 방법.
The method of claim 14, after the step of analyzing images acquired through a vision camera while the smart farm autonomous robot system travels the path of the open-air smart farm,
Detecting, by the processor, whether weeds have grown above a specified standard in the field;
When weeds growing in the open field are detected, notifying the user that weeds are growing in the open field, receiving permission from the user, and performing the weeding work by selecting or installing a corresponding agricultural equipment module suitable for performing the weeding work; and
When the weeding operation is completed, notifying the user of images captured before and after the operation and leaving a record in the database of the memory module.
제 14항에 있어서, 상기 스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하는 단계 이후,
상기 프로세서가,
노지형 스마트 팜에 식재된 나무의 나뭇가지의 모양을 분석하는 단계;
상기 나뭇가지의 모양을 분석할 결과, 부러진 나뭇가지 또는 전지할 나뭇가지로 감지될 경우, 상기 나뭇가지가 상기 스마트 팜 자율주행 로봇 시스템에 장착된 농기구 모듈에 의해 자동 전지 가능한 나뭇가지인지 체크하는 단계;
상기 나뭇가지가 자동 전지 가능한 나뭇가지인 경우, 전지할 나뭇가지가 있음을 사용자에게 알리고, 사용자의 허가를 받아 전지 작업을 수행하는데 적합한 해당 농기구 모듈을 선택하거나 장착하여 전자 작업을 수행하는 단계; 및
상기 전지 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 단계;를 더 포함하는 것을 특징으로 하는 스마트 팜 자율주행 로봇 시스템의 제어 방법.
The method of claim 14, after the step of analyzing images acquired through a vision camera while the smart farm autonomous robot system travels the path of the open-air smart farm,
The processor,
Analyzing the shape of branches of trees planted in an open-air smart farm;
As a result of analyzing the shape of the branch, if it is detected as a broken branch or a branch to be pruned, checking whether the branch is capable of automatic pruning by a farming equipment module mounted on the smart farm autonomous robot system. ;
If the tree branch is a tree branch capable of automatic pruning, notifying the user that there is a tree branch to be pruned, receiving the user's permission, and performing an electronic task by selecting or installing a corresponding agricultural equipment module suitable for performing the pruning task; and
When the pruning operation is completed, notifying the user of the images captured before and after the operation and leaving a record in the database of the memory module.
제 16항에 있어서,
상기 나뭇가지가 자동 전지 가능한 나뭇가지가 아닌 경우,
상기 프로세서는,
전지할 나뭇가지가 있는 나무의 위치를 메모리 모듈에 지도 형태로 기록하고, 상기 기록한 위치를 사용자에게 안내하여 사용자가 전지 작업을 수행할 수 있도록 하는 것을 특징으로 하는 스마트 팜 자율주행 로봇 시스템의 제어 방법.
According to clause 16,
If the above tree branch is not a tree branch capable of automatic pruning,
The processor,
A control method for a smart farm autonomous robot system, comprising recording the location of a tree with branches to be pruned in the form of a map on a memory module and guiding the user to the recorded location so that the user can perform the pruning task. .
제 14항에 있어서, 상기 스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하는 단계 이후,
상기 프로세서가,
노지형 스마트 팜에 식재된 나무의 나뭇가지에 매달린 과일의 형태와 색깔을 분석하는 단계;
상기 나뭇가지에 매달린 과일의 현재 생장 시점에서 봉투에 싸이지 않은 과일이 감지될 경우, 상기 봉투에 싸이지 않은 과일이 매달린 나무의 위치를 메모리 모듈에 지도 형태로 기록하고, 상기 기록한 위치를 사용자에게 안내하여 사용자가 과일 봉투 작업을 수행할 수 있도록 하는 단계;
상기 사용자가 과일 봉투 작업을 수행하면 상기 지도에 기록된 정보와 비교하여 모든 과일에 대하여 과일 봉투 작업이 완료되는지 체크하는 단계; 및
상기 지도에 기록된 모든 과일에 대하여 과일 봉투 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 단계;를 더 포함하는 것을 특징으로 하는 스마트 팜 자율주행 로봇 시스템의 제어 방법.
The method of claim 14, after the step of analyzing images acquired through a vision camera while the smart farm autonomous robot system travels the path of the open-air smart farm,
The processor,
Analyzing the shape and color of fruit hanging on the branches of trees planted in an open-air smart farm;
If unbagged fruit is detected at the current growth point of the fruit hanging from the tree branch, the location of the tree where the unbagged fruit hangs is recorded in the form of a map in the memory module, and the recorded location is sent to the user. Guiding a user to perform a fruit bag task;
When the user performs the fruit bag task, comparing the information recorded in the map to check whether the fruit bag task is completed for all fruits; and
Smart farm autonomous driving further comprising: notifying the user of images taken before and after the task when the fruit bag task is completed for all fruits recorded on the map and leaving a record in the database of the memory module. Control method of robotic system.
제 14항에 있어서, 상기 스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하는 단계 이후,
상기 프로세서가,
땅에 떨어진 과일이 있는지 감지하는 단계;
상기 땅에 떨어진 과일이 썩거나 과육이 파인 과일인 경우, 상기 땅에 떨어진 과일을 땅에 파묻기 위한 작업을 수행하는데 적합한 해당 농기구 모듈을 선택하거나 장착하여 과일 파묻기 작업을 수행하는 단계; 및
상기 과일 파묻기 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 단계;를 더 포함하는 것을 특징으로 하는 스마트 팜 자율주행 로봇 시스템의 제어 방법.
The method of claim 14, after the step of analyzing images acquired through a vision camera while the smart farm autonomous robot system travels the path of the open-air smart farm,
The processor,
Detecting whether fruit has fallen on the ground;
If the fruit that has fallen to the ground is rotten or has a hollow flesh, performing the fruit burying task by selecting or installing a corresponding farming tool module suitable for performing the task of burying the fruit that has fallen to the ground; and
When the fruit burying task is completed, notifying the user of the images captured before and after the task and leaving a record in the database of the memory module.
제 14항에 있어서, 상기 스마트 팜 자율주행 로봇 시스템이 노지형 스마트 팜의 경로를 주행하면서, 비전카메라를 통해 획득한 영상을 분석하는 단계 이후,
상기 프로세서가,
노지형 스마트 팜에 식재된 나무의 나뭇가지에 매달린 과일의 형태와 색깔을 분석하는 단계;
상기 나뭇가지에 매달린 과일이 썩은 과일, 과육이 파인 과일, 또는 익은 과일 중 어느 하나일 경우, 상기 해당 과일이 매달린 나무의 위치를 메모리 모듈에 지도 형태로 기록하고, 상기 기록한 위치를 사용자에게 안내하여 사용자가 과일 제거 작업 또는 과일 수확 작업을 수행할 수 있게 하는 단계;
상기 사용자가 과일 제거 작업 또는 과일 수확 작업을 수행하면, 상기 지도에 기록된 정보와 비교하여 종류별 모든 과일에 대하여 각기 해당하는 작업이 완료되는지 체크하는 단계; 및
상기 지도에 기록된 종류별 모든 과일에 대하여 각각 해당하는 작업이 완료되면, 작업 전/후에 촬영된 영상을 사용자에게 알리고, 메모리 모듈의 데이터베이스에 기록을 남기는 단계;를 더 포함하는 것을 특징으로 하는 스마트 팜 자율주행 로봇 시스템의 제어 방법.
The method of claim 14, after the step of analyzing images acquired through a vision camera while the smart farm autonomous robot system travels the path of the open-air smart farm,
The processor,
Analyzing the shape and color of fruit hanging on the branches of trees planted in an open-air smart farm;
If the fruit hanging on the tree branch is a rotten fruit, a fruit with peeled flesh, or a ripe fruit, the location of the tree on which the fruit is hanging is recorded in the form of a map in a memory module, and the recorded location is guided to the user. enabling a user to perform a fruit removal operation or a fruit harvesting operation;
When the user performs a fruit removal task or a fruit harvest task, comparing the information recorded on the map to check whether the corresponding task is completed for all fruits of each type; and
When the corresponding task is completed for all fruits of each type recorded on the map, notifying the user of the images taken before and after the task and leaving a record in the database of the memory module; a smart farm characterized by further comprising: Control method for self-driving robot system.
KR1020220110139A 2022-08-31 2022-08-31 Smart farm autonomous driving robot system and control method thereof KR20240031559A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220110139A KR20240031559A (en) 2022-08-31 2022-08-31 Smart farm autonomous driving robot system and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220110139A KR20240031559A (en) 2022-08-31 2022-08-31 Smart farm autonomous driving robot system and control method thereof

Publications (1)

Publication Number Publication Date
KR20240031559A true KR20240031559A (en) 2024-03-08

Family

ID=90235942

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220110139A KR20240031559A (en) 2022-08-31 2022-08-31 Smart farm autonomous driving robot system and control method thereof

Country Status (1)

Country Link
KR (1) KR20240031559A (en)

Similar Documents

Publication Publication Date Title
US10721859B2 (en) Monitoring and control implement for crop improvement
Bechar et al. Agricultural robots for field operations. Part 2: Operations and systems
US10255670B1 (en) Image sensor and module for agricultural crop improvement
US7854108B2 (en) Agricultural robot system and method
AU2005314708B2 (en) Agricultural robot system and method
Moorehead et al. Automating orchards: A system of autonomous tractors for orchard maintenance
van Evert et al. A robot to detect and control broad‐leaved dock (Rumex obtusifolius L.) in grassland
Verbiest et al. Automation and robotics in the cultivation of pome fruit: Where do we stand today?
Kushwaha et al. Status and scope of robotics in agriculture
CN108633533B (en) Tree automatic tending method and device, electronic equipment and storage medium
US20220176544A1 (en) Robotic Farm System and Method of Operation
US20220207852A1 (en) Generating a ground plane for obstruction detection
US20110238270A1 (en) Method for tending an agricultural estate
Karkee et al. Agricultural robots for precision agricultural tasks in tree fruit orchards
Kondratieva et al. New solutions in the horticultural industry
WO2022091092A1 (en) System and method for indoor crop management
US20240053748A1 (en) Self-maintaining, solar powered, autonomous robotics system and associated methods
Kushwaha Robotic and mechatronic application in agriculture
KR20240031559A (en) Smart farm autonomous driving robot system and control method thereof
US20220136849A1 (en) Farming vehicle field boundary identification
Rajmane et al. Precision agriculture and robotics
Halder et al. Application of Precision Farming in Horticulture: A Comprehensive Review
CN114568418B (en) Agricultural impurity removal system
US20230337568A1 (en) Smart implements
Kashyap et al. Recent Development of Automation and IoT in Agriculture