KR20230124231A - Method and apparatus for remotely controlling robotic agricultural machine - Google Patents

Method and apparatus for remotely controlling robotic agricultural machine Download PDF

Info

Publication number
KR20230124231A
KR20230124231A KR1020220021277A KR20220021277A KR20230124231A KR 20230124231 A KR20230124231 A KR 20230124231A KR 1020220021277 A KR1020220021277 A KR 1020220021277A KR 20220021277 A KR20220021277 A KR 20220021277A KR 20230124231 A KR20230124231 A KR 20230124231A
Authority
KR
South Korea
Prior art keywords
robot
agricultural machine
camera
user
control
Prior art date
Application number
KR1020220021277A
Other languages
Korean (ko)
Inventor
유원필
송수환
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020220021277A priority Critical patent/KR20230124231A/en
Publication of KR20230124231A publication Critical patent/KR20230124231A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B69/00Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
    • A01B69/007Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow
    • A01B69/008Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow automatic
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/20Off-Road Vehicles
    • B60Y2200/22Agricultural vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2201/00Application
    • G05D2201/02Control of position of land vehicles
    • G05D2201/0201Agriculture or harvesting machine

Abstract

본 발명은 로봇 농기계를 원격 제어하기 위한 방법을 제공할 수 있다. 이때, 로봇 농기계를 원격 제어하기 위한 방법은 적어도 하나의 카메라를 통해 상기 로봇 농기계 주변 환경에 대한 정보를 수집하는 단계, 자율주행모드에서, 상기 수집한 정보에 기반하여 직진 구간에서 자율 주행을 수행하는 단계, 사용자의 디바이스로부터 원격 제어모드를 지시하는 명령을 수신하는 단계, 상기 원격 제어모드에서의 주행을 위한 상기 사용자의 동작 제어 정보를 수신하는 단계, 상기 원격 제어모드에서, 상기 동작 제어 정보에 기반하여 곡선 구간에서 운행을 수행하는 단계를 포함할 수 있다. 여기서, 상기 동작 제어 정보는, 상기 로봇 농기계의 조향 제어각을 지시하는 사용자의 동작 명령 정보를 포함하고, 상기 적어도 하나의 카메라는, 높이를 달리하여 설치된 적어도 하나 이상의 카메라 또는 적어도 하나 이상의 광각 카메라 중 적어도 하나일 수 있다.The present invention may provide a method for remotely controlling a robotic agricultural machine. At this time, the method for remotely controlling the robotic agricultural machine includes collecting information on the surrounding environment of the robotic agricultural machine through at least one camera, performing autonomous driving in a straight section based on the collected information in an autonomous driving mode Step, receiving a command indicating a remote control mode from a user's device, receiving motion control information of the user for driving in the remote control mode, in the remote control mode, based on the motion control information and performing operation in the curved section by doing so. Here, the motion control information includes user's motion command information indicating a steering control angle of the robot agricultural machine, and the at least one camera is selected from among at least one camera installed at different heights or at least one wide-angle camera. It can be at least one.

Description

로봇 농기계를 원격 제어하기 위한 방법 및 장치{METHOD AND APPARATUS FOR REMOTELY CONTROLLING ROBOTIC AGRICULTURAL MACHINE}Method and apparatus for remotely controlling robotic agricultural machines

본 발명은 로봇 농기계를 원격 제어하기 위한 방법 및 장치를 제공할 수 있다.The present invention can provide a method and apparatus for remotely controlling a robotic agricultural machine.

구체적으로, 본 발명은 로봇 농기계가 수집한 주변 환경에 대한 정보를 이용하여 로봇 농기계를 원격으로 제어하기 위한 방법 및 장치를 제공할 수 있다.Specifically, the present invention may provide a method and apparatus for remotely controlling a robotic agricultural machine by using information about the surrounding environment collected by the robot agricultural machine.

최근 다양한 분야에서 로봇기술을 이용한 자동화 시스템의 도입이 활발하다. 대표적인 예로 가정용 청소 로봇, 안내 서비스 로봇, 물류 자동화를 위한 이송(transport) 로봇, 자율주행 자동차가 있다.Recently, the introduction of automation systems using robot technology is active in various fields. Representative examples include household cleaning robots, guide service robots, transport robots for logistics automation, and autonomous vehicles.

농업 분야의 경우 고온 다습한 환경에서 단순 반복 작업이 진행되는 경우가 많다. 파종기, 이앙기, 제초기, 방제기, 수확기 등의 작업을 기계식으로 처리할 수 있는 농기계는 이미 보편적으로 사용되고 있다. 파종, 이앙, 제초, 방제, 수확 등 대표적인 농작업은 상당부분 기계화가 진행되어 전통적인 농작업 대비 생산성이 획기적으로 높아졌다. 이러한 흐름에 따라 농업분야에서 인력이 필요 없는 로봇 자동화에 대한 관심과 수요는 상당하다.In the case of agriculture, simple repetitive work is often performed in a high temperature and high humidity environment. Agricultural machines capable of mechanically processing tasks such as seeders, rice transplanters, weeders, weeders, and harvesters are already in common use. Representative agricultural work such as sowing, transplanting, weeding, control, and harvesting has been mechanized to a large extent, and productivity has dramatically increased compared to traditional agricultural work. Following this trend, there is considerable interest and demand for robot automation that does not require manpower in the agricultural sector.

본 발명은 로봇 농기계를 원격 제어하기 위한 방법 및 장치를 제공하는데 목적이 있다.An object of the present invention is to provide a method and apparatus for remotely controlling a robotic agricultural machine.

본 발명은 로봇 농기계가 수집한 주변 환경에 대한 정보를 이용하여 로봇 농기계를 원격으로 제어하기 위한 방법 및 장치를 제공하는데 목적이 있다.An object of the present invention is to provide a method and apparatus for remotely controlling a robotic agricultural machine by using information about the surrounding environment collected by the robot agricultural machine.

본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허청구범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present invention can be understood by the following description, and will be more clearly understood by the examples of the present invention. It will also be readily apparent that the objects and advantages of the present invention may be realized by means of the instrumentalities and combinations thereof set forth in the claims.

본 발명의 일 실시예에 따르면, 로봇 농기계를 원격 제어하기 위한 방법을 제공할 수 있다. 이때, 로봇 농기계를 원격 제어하기 위한 방법은 적어도 하나의 카메라를 통해 상기 로봇 농기계 주변 환경에 대한 정보를 수집하는 단계, 자율주행모드에서, 상기 수집한 정보에 기반하여 직진 구간에서 자율 주행을 수행하는 단계, 사용자의 디바이스로부터 원격 제어모드를 지시하는 명령을 수신하는 단계, 상기 원격 제어모드에서의 주행을 위한 상기 사용자의 동작 제어 정보를 수신하는 단계, 상기 원격 제어모드에서, 상기 동작 제어 정보에 기반하여 곡선 구간에서 운행을 수행하는 단계를 포함할 수 있다. 여기서, 상기 동작 제어 정보는, 상기 로봇 농기계의 조향 제어각을 지시하는 사용자의 동작 명령 정보를 포함하고, 상기 적어도 하나의 카메라는, 높이를 달리하여 설치된 적어도 하나 이상의 카메라 또는 적어도 하나 이상의 광각 카메라 중 적어도 하나일 수 있다.According to one embodiment of the present invention, it is possible to provide a method for remotely controlling a robot agricultural machine. At this time, the method for remotely controlling the robotic agricultural machine includes collecting information on the surrounding environment of the robotic agricultural machine through at least one camera, performing autonomous driving in a straight section based on the collected information in an autonomous driving mode Step, receiving a command indicating a remote control mode from a user's device, receiving motion control information of the user for driving in the remote control mode, in the remote control mode, based on the motion control information and performing operation in the curved section by doing so. Here, the motion control information includes user's motion command information indicating a steering control angle of the robot agricultural machine, and the at least one camera is selected from among at least one camera installed at different heights or at least one wide-angle camera. It can be at least one.

본 발명에 따르면, 로봇 농기계를 원격 제어하기 위한 방법 및 장치를 제공할 수 있다.According to the present invention, it is possible to provide a method and apparatus for remotely controlling a robotic agricultural machine.

본 발명에 따르면, 로봇 농기계를 원격 제어하기 위한 방법 및 장치를 제공함으로써, 농기계를 원격 제어하는 사용자의 편리성을 증대시키는 장점을 제공할 수 있다.According to the present invention, by providing a method and apparatus for remotely controlling a robotic agricultural machine, it is possible to provide an advantage of increasing user convenience for remotely controlling an agricultural machine.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable in the present disclosure are not limited to the effects mentioned above, and other effects not mentioned may be clearly understood by those skilled in the art from the description below. will be.

도 1은 본 발명의 일 실시예에 따른 원격 운전 기술을 탑재한 로봇 농기계를 이용하여 과수환경에서 방제작업을 하는 경로의 예를 도시한다.
도 2는 본 발명의 일 실시예에 따른 농기계를 원격 제어하기 위한 절차의 예를 도시한다.
도 3은 본 발명의 일 실시예에 따른 원격 운전 기술을 탑재한 로봇 방제기를 도시한다.
도 4는 본 발명의 일 실시예에 따른 도 3의 로봇 농기계에 설치된 제1 카메라 및 제2 카메라가 촬영한 영상 화면의 예를 도시한다.
도 5는 본 발명의 일 실시예에 따른 스마트폰에 구현한 로봇 농기계를 원격 운전하기 위한 사용자 인터페이스를 도시한다.
도 6은 본 발명에 따른 장치 구성의 일 예를 도시한다.
1 shows an example of a route for control work in an orchard environment using a robot agricultural machine equipped with remote driving technology according to an embodiment of the present invention.
2 shows an example of a procedure for remotely controlling an agricultural machine according to an embodiment of the present invention.
Figure 3 shows a robot sprayer equipped with remote driving technology according to an embodiment of the present invention.
4 illustrates an example of an image screen captured by a first camera and a second camera installed in the robot agricultural machine of FIG. 3 according to an embodiment of the present invention.
5 illustrates a user interface for remotely driving a robot agricultural machine implemented in a smart phone according to an embodiment of the present invention.
6 shows an example of a device configuration according to the present invention.

이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. Hereinafter, with reference to the accompanying drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily implement the present disclosure. However, this disclosure may be embodied in many different forms and is not limited to the embodiments set forth herein.

본 개시의 실시예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In describing the embodiments of the present disclosure, if it is determined that a detailed description of a known configuration or function may obscure the gist of the present disclosure, a detailed description thereof will be omitted. And, in the drawings, parts irrelevant to the description of the present disclosure are omitted, and similar reference numerals are attached to similar parts.

본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the present disclosure, when a component is said to be "connected", "coupled" or "connected" to another component, this is not only a direct connection relationship, but also an indirect connection relationship between which another component exists. may also be included. In addition, when a component "includes" or "has" another component, this means that it may further include another component without excluding other components unless otherwise stated. .

본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시예에서의 제1 구성요소는 다른 실시예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시예에서의 제2 구성요소를 다른 실시예에서 제1 구성요소라고 칭할 수도 있다. In the present disclosure, terms such as first and second are used only for the purpose of distinguishing one element from another, and do not limit the order or importance of elements unless otherwise specified. Accordingly, within the scope of the present disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly, a second component in one embodiment may be referred to as a first component in another embodiment. can also be called

본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시예도 본 개시의 범위에 포함된다. In the present disclosure, components that are distinguished from each other are intended to clearly explain each characteristic, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated to form a single hardware or software unit, or a single component may be distributed to form a plurality of hardware or software units. Accordingly, even such integrated or distributed embodiments are included in the scope of the present disclosure, even if not mentioned separately.

본 개시에 있어서, 다양한 실시예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들을 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시예도 본 개시의 범위에 포함된다. 또한, 다양한 실시예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시예도 본 개시의 범위에 포함된다. In the present disclosure, components described in various embodiments do not necessarily mean essential components, and some may be optional components. Accordingly, an embodiment comprising a subset of elements described in one embodiment is also included in the scope of the present disclosure. In addition, embodiments including other components in addition to the components described in various embodiments are also included in the scope of the present disclosure.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 제시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the following detailed description of the embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments presented below and can be implemented in various different forms, only the present embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention belongs. It is provided to fully inform the person who has the scope of the invention.

최근 사람이 직접 농기계를 운전하는 방식에서 벗어나 자율주행 자동차와 같이 환경을 인지하여 주어진 농작업을 자율적으로 수행하는 농기계에 대한 개발이 활발하다. 특히, 북미와 유럽의 경우 대형 농기계 제조사를 중심으로 자동 유도(automatic guidance) 장치가 개발되어 트랙터 등 다양한 농기계에 탑재되고 있다. 이러한 자동 유도 장치는 RTK-GPS(real time kinematic global positioning system)를 통해 수 센티미터(cm)정도의 오차를 가지는 정확한 위치 인식 기능을 제공하기 때문에 대형농장을 중심으로 사용량이 꾸준히 증가하고 있다. 이로 인해, 라이다(light detection and ranging, LIDAR), 카메라 센서를 활용하여 환경을 인지하여 자동으로 농작업을 수행하는 장치와 방법에 대한 연구가 활발하다. 이러한 방법은 농기계의 환경 인지 기능을 향상시키는 효과가 있기 때문에 가까운 미래의 작업보조 기능으로 각광받고 있다.Recently, the development of agricultural machines that perform given agricultural tasks autonomously by recognizing the environment, such as self-driving cars, away from the method of directly driving agricultural machines by humans has been actively developed. In particular, in the case of North America and Europe, automatic guidance devices have been developed around large agricultural machinery manufacturers and are being mounted on various agricultural machinery such as tractors. Since this automatic guidance device provides an accurate location recognition function with an error of several centimeters (cm) through a real time kinematic global positioning system (RTK-GPS), its use is steadily increasing, especially in large farms. For this reason, research on devices and methods for automatically performing agricultural work by recognizing the environment using a light detection and ranging (LIDAR) and a camera sensor has been actively conducted. Since this method has the effect of improving the environmental recognition function of agricultural machinery, it is in the spotlight as a work assistance function in the near future.

그러나, RTK-GPS시스템, 라이다, 카메라 센서 등의 다양한 환경인지 보조 장치는 각각의 개별 요소 자체가 고가이거나, 개별 요소를 포함하는 시스템을 구현하는 비용이 상당하다. 따라서, 해당 장치들을 이용하여 농작업의 자동화를 구현하는데 어려움이 있다. 특히, 자동으로 농작업을 수행하는 장치 및 방법은 북미나 유럽의 대형 농장과는 다르게 국내 농가는 중소형 농장을 중심으로 구성되어 있다. 따라서, 국내의 경우 자동으로 농작업을 수행하는 장치 및 방법을 도입함에 있어 어려움이 더욱 크다.However, various environmental assisting devices such as an RTK-GPS system, LIDAR, and camera sensors are either expensive in themselves or costly to implement a system including individual elements. Therefore, it is difficult to implement the automation of agricultural work using the corresponding devices. In particular, unlike large farms in North America or Europe, domestic farms are mainly composed of small and medium-sized farms. Therefore, in the case of Korea, it is more difficult to introduce an apparatus and method for automatically performing agricultural work.

특히, 농기계에 자율 기능을 탑재하는 경우 다양한 현장 상황으로 인하여 농기계가 환경을 부정확하게 인지하여 오류를 일으키는 경우가 많다. 이러한 오류는 사용자의 불만족을 유발하며, 오류를 해결하기 위해 별도의 백업장치와 방법을 농기계에 적용해야 하므로 비용이 증가한다. 또한 과수농가의 경우 과수나무에 의해 GPS신호가 차단되기 쉬우므로 완전히 개방된 공간을 가정하고 설계된 RTK-GPS기반의 위치 인식 및 제어방법은 적용하기 어렵다. 즉, RTK-GPS기반의 방식은 고가의 장비와 정교한 시스템 설정이 필요하기 때문에 보편화에 여전히 어려움이 있다. In particular, when autonomous functions are installed in agricultural machines, errors are often caused by the agricultural machines inaccurately recognizing the environment due to various field conditions. Such an error causes user dissatisfaction, and costs increase because a separate backup device and method must be applied to the agricultural machine to solve the error. In addition, in the case of fruit farms, GPS signals are easily blocked by fruit trees, so it is difficult to apply the RTK-GPS-based location recognition and control method designed assuming a completely open space. That is, since the RTK-GPS-based method requires expensive equipment and sophisticated system settings, it is still difficult to generalize.

최근, 엔드 투 엔드(end-to-end) 학습을 이용하여 농기계의 작업 동선을 제어하기 위한 연구가 많이 수행되었다. M. Bakken등이 발표한 "End-to-End Learning for Autonomous Crop Row-following" (AgriControl, 2019)의 연구는 로봇을 이용한 방제작업에 직접 적용이 가능한 개념을 제시하였다. 그러나, 해당 참조문헌은 실제 방제 작업에 필요한 조향 제어각을 정확하게 생성하지 못하는 한계를 보이고 있다. 실제 현장에서의 다양한 지형 상태, 예측하지 못한 상황 등에 대하여, 모델링이 어려울 뿐만 아니라 학습을 위한 데이터를 확보에도 어려움이 있기 때문이다. Recently, many studies have been conducted to control the work flow of agricultural machines using end-to-end learning. The study of "End-to-End Learning for Autonomous Crop Row-following" (AgriControl, 2019) published by M. Bakken et al. presented a concept that can be directly applied to control operations using robots. However, the references show limitations in not accurately generating the steering control angle required for actual control work. This is because it is not only difficult to model various terrain conditions and unpredictable situations in the actual field, but also difficult to secure data for learning.

따라서, 예상치 못한 상황에서 원격 제어의 자율기능을 보완하기 위한 기술에 대한 많은 연구가 진행되었다. Jessie Y.C. Chen 등은 자신들이 조사한 원격 제어 로봇기술을 "Human performance issues and user interface design for teleoperated robots"에 자세히 소개하고 있다. 해당 문헌에 따르면 다양한 센서 중에서 원격 제어를 위해 카메라를 주로 사용한다. 해당 문헌은 카메라의 파라미터에 따라 원격 제어의 성능이 어떤 효과를 가져오는지를 광범위하게 소개하고 있다. 이러한 파라미터는 시야각(field-of-view, FOV), 로봇의 현재 자세, 카메라 시점(viewpoint), 3차원 깊이 (depth) 인식, 비디오 프레임 레이트(frame rate), 시간 지연, 원격 제어 사용자의 자체 모션을 포함한다.Therefore, many studies have been conducted on technologies to supplement the autonomous functions of remote controls in unexpected situations. Jessie Y.C. Chen et al. introduce the remote control robot technology they investigated in detail in "Human performance issues and user interface design for teleoperated robots". According to the literature, among various sensors, a camera is mainly used for remote control. The literature extensively introduces the effects of remote control performance depending on camera parameters. These parameters include field-of-view (FOV), robot's current pose, camera viewpoint, 3D depth perception, video frame rate, time delay, and the remote control user's own motion. includes

노지, 과수환경에 주로 사용되는 농기계는 트랙터, 방제기, 콤바인, 이앙기, 제초기이다. 대부분의 농기계의 작업 속도는 사람의 보행 속도 혹은 경보 수준으로서, 5 km/h 내외에 불과하다. 따라서, 상기 문헌에서 제시한 파라미터가 모두 원격 운전 혹은 제어에 직접적인 영향을 미치지는 않는다. 느리게 동작하는 농기계의 원격 운전에 결정적인 영향을 미치는 요소는 시야각과 시간 지연 파라미터이다. 대부분의 농기계가 직진과 유턴 형태의 회전 동작을 통해 작업을 수행하기 때문에 급격한 회전 경로에서 농기계를 원격으로 조종이 가능한지가 중요한 요소가 될 수 있다. 특히, 무선 네트워킹/통신기술의 발전으로 인하여 빨라진 원격지의 카메라 영상을 스트림으로 송신 혹은 수신하는 속도는, 농기계의 느린 작업 속도를 감안하면 실질적인 이슈가 되지 않는다. 또한, 원격 운전자가 이동하면서 농기계를 원격 제어하는 경우는 없기 때문에 시야각과 시간 지연에 따른 원격 운전의 효율저하 여부에 대해서만 검토하여도 충분하다.Agricultural machines mainly used in the open field and orchard environment are tractors, pest control machines, combines, rice transplanters, and weeders. The working speed of most agricultural machines is only about 5 km/h, which is the walking speed or warning level of a person. Therefore, the parameters presented in the above document do not directly affect remote operation or control. Factors that have a decisive influence on the remote operation of slow-moving agricultural machinery are the viewing angle and time delay parameters. Since most agricultural machines perform work through straight-ahead and U-turn-type rotational motions, it can be an important factor whether the agricultural machine can be controlled remotely in a sharp turning path. In particular, the speed of transmitting or receiving a video from a camera in a remote location, which has become faster due to the development of wireless networking/communication technology, as a stream is not a practical issue considering the slow working speed of agricultural machinery. In addition, since there is no case in which a remote operator remotely controls an agricultural machine while moving, it is sufficient to examine only whether or not the efficiency of remote operation is reduced according to the viewing angle and time delay.

로봇 농기계는 시야각을 확보하기 위해서, 360도 서라운드 뷰 모니터링 시스템(surround view monitoring view)을 적용하여 탑 뷰(top-view)를 생성하고, 탑 뷰를 이용하여 농기계를 원격 운전할 수 있다. 해당 방법은 과수환경에서 지면과 과수열이 명확히 분간이 가능한 경우에는 편리하게 원격 운전에 적용할 수 있지만, 카메라 렌즈를 통해 로봇 주변의 상황이 왜곡되는 문제를 발생시킬 수 있다. 또한 해당 방법은 농작업 현장에서 지면과 로봇 주변의 지형지물이 유사한 경우가 많기 때문에 원격 운전자의 육안을 통해 조향 제어를 하기 어려운 단점이 있다. 특히, 방제기를 원격 운전하는 경우, 운전자가 과수열을 따라 방제기를 운전하다가 회전 구간에서 오른쪽 또는 왼쪽으로 조향각을 제어할 때 지면과 과수열이 육안으로 분간이 되지 않는 경우가 많다. 이 경우, 시간 지연 효과까지 발생하면 원격 운전자는 방제기의 원격 운전에 실패하고, 방제기는 인근의 과수나무에 충돌하기도 한다.In order to secure a viewing angle, the robot agricultural machine may generate a top-view by applying a 360-degree surround view monitoring view, and remotely drive the agricultural machine using the top-view. This method can be conveniently applied to remote operation when the ground and the fruit heat can be clearly distinguished in the fruit water environment, but it may cause a problem that the situation around the robot is distorted through the camera lens. In addition, this method has a disadvantage in that it is difficult to control the steering through the naked eye of a remote driver because the ground and terrain features around the robot are often similar in agricultural work sites. In particular, in the case of remotely operating the pest control machine, when the driver controls the steering angle to the right or left in the turning section while driving the control machine along the fruit heat, the ground and the fruit heat are often not distinguishable with the naked eye. In this case, if a time delay effect occurs, the remote operator fails to operate the pesticide remotely, and the pesticide may collide with a nearby fruit tree.

한편, 시간 지연은 원격 운전시 원격으로 운전되는 농기계에 입력되는 데이터와 원격 영상 출력 간의 지연을 지칭한다. 시간 지연은 통신망을 통한 비디오 스트림 전송과정에서 발생한다. 시간 지연은 수 밀리초(ms)에서 수 초(s)에 이르기까지 다양하게 발생한다. 시간 지연으로 인해 원격 운전의 작업효율은 저하될 수 있다. 시간 지연이 있음에도 불구하고 무브 앤 웨이트(move and wait) 전략처럼 대부분의 사용자가 농작업 기계의 느린 운행속도를 고려하여 시간 지연에 대해 적응을 하기 때문에 농기계를 직접 운전함에 따른 어려움(예: 소음, 진동, 방제작업의 경우, 방제액 분사에 따른 유해물질 흡입, 주변 지형 지물과의 충돌, 긁힘 등)에 비하면 감안할 수 있는 수준이다.Meanwhile, time delay refers to a delay between data input to the remotely operated agricultural machine and remote image output during remote operation. Time delay occurs in the process of transmitting a video stream through a communication network. Time delays vary from a few milliseconds (ms) to a few seconds (s). Due to the time delay, the work efficiency of the remote operation may decrease. Although there is a time delay, as in the move and wait strategy, most users adapt to the time delay by considering the slow operation speed of agricultural machinery, so difficulties in directly operating agricultural machinery (e.g., noise, In case of vibration and control work, inhalation of harmful substances due to spraying of control solution, collision with surrounding terrain features, scratches, etc.), this is a level that can be considered.

따라서, 대부분의 경우에 농기계를 원격 운전하기 위해서는 시야각을 안정적으로 확보하는 것이 가장 큰 이슈이다. 또한, 시야각을 확보하더라도 원격 운전자가 연속적으로 화면을 주시하면서 농기계를 제어하는 것은 상당한 피로를 유발하기 때문에 간편하면서도 효과적인 원격 운전 인터페이스가 필요하다.Therefore, in most cases, securing a stable viewing angle is the biggest issue in order to remotely operate agricultural machinery. In addition, even if a viewing angle is secured, a simple and effective remote driving interface is required because it causes considerable fatigue for a remote operator to control an agricultural machine while continuously watching the screen.

기존에 원격 운전에 대해 많은 시도가 있었지만, 농작업에 원격 운전 기술을 적용하여 사용자의 편리를 제공하는 방법은 미비하였다. 최근에 5G, 무선 매쉬(mesh) 망 기술 등 통신기술의 발전이 빠르게 진행되고 있기 때문에 비디오 스트리밍에 따른 해상도 저하나 시간 지연은 점진적으로 해결될 것이다. 따라서, 발전한 통신 기술을 기반으로 원격 운전을 위한 시야각을 확보하고 원격 운전 사용자의 연속 작업 피로도를 획기적으로 낮출 수 있는 인터페이스를 적극적으로 도입할 수 있을 것이다. 즉, 자율주행 기능을 적극 도입하기 어려운 비정형, 동적 농작업 환경에서도 발전한 통신 기술을 이용하여 농기계의 원격 운전을 통해 간편하고 편리하게 기존의 작업을 수행하고 생산성을 확보할 수 있을 것이다.Although many attempts have been made on remote driving, methods for providing user convenience by applying remote driving technology to agricultural work have been insufficient. Recently, as communication technologies such as 5G and wireless mesh technology are rapidly developing, resolution degradation or time delay due to video streaming will be gradually resolved. Therefore, it will be possible to actively introduce an interface that can secure a viewing angle for remote driving based on advanced communication technology and significantly reduce the fatigue of remote driving users. In other words, even in an atypical and dynamic agricultural work environment where it is difficult to actively introduce autonomous driving functions, it will be possible to simply and conveniently perform existing tasks and secure productivity through remote operation of agricultural machinery using advanced communication technology.

그러나, 최근의 농기계 원격 운전 기술은 여전히 시야각 확보의 어려움이 있고, 지속적인 사용자 개입을 필요로 하기 때문에 실제 현장 도입에 어려움이 있다. 본 발명은 이러한 문제를 해결하기 위해 실제 농가에서 사용하기 간편하고 저렴한 비용으로 구현이 가능한, 영상을 이용한 원격 운전 기반의 로봇 농기계 제어장치와 이를 이용하는 방법을 제안한다. 또한, 본 발명은 사용자의 지속적인 개입이 필요 없는, 회전 구간과 같은 자동화가 어려운 구간을 제외한 대부분의 직진 구간에서 자율적으로 운행이 가능한 기술을 제안한다. 이를 위해, 본 발명은 별도의 직진 이동 보조 장치를 카메라와 함께 사용한다. 본 발명에 따르면, 원격 운전자의 피로도가 획기적으로 감소하고 높은 농작업 효율성을 확보할 수 있다.However, recent agricultural machine remote driving technology still has difficulty in securing a viewing angle and requires continuous user intervention, so it is difficult to actually introduce it to the field. In order to solve these problems, the present invention proposes a remote operation-based robot agricultural machine control device using video and a method of using the same, which is easy to use and can be implemented at low cost in actual farms. In addition, the present invention proposes a technology capable of driving autonomously in most straight sections, excluding sections where automation is difficult, such as turning sections, which do not require continuous user intervention. To this end, the present invention uses a separate straight-line movement assisting device together with a camera. According to the present invention, it is possible to significantly reduce fatigue of a remote operator and secure high agricultural work efficiency.

본 발명은 원격 운전 기능을 이용하여 로봇 농기계를 제어하는 장치 및 방법에 관한 것이다. 보다 구체적으로, 원격지에 있는 로봇 농기계에서 전송되는 비디오 스트림을 통해 로봇 농기계의 동작을 제어함으로써 다양한 농작업을 간편하고 효과적으로 수행할 수 있는 원격 운전 기반의 로봇 농기계 제어장치 및 이를 위한 방법에 관한 것이다. 본 발명에 따르면, 로봇 농기계에 전방과 주변공간 주시할 수 있는 적어도 하나의 카메라 및 직진 이동을 보조하는 조향 제어 장치를 결합함으로써 작업 중 사용자의 시야각 제한을 극복하고, 사용자의 조향 제어 개입을 최소화할 수 있다. 또한 다른 일 예로, 광각 렌즈(어안 렌즈)를 탑재한 카메라를 이용함으로써 시야각 제한을 극복할 수 있다. The present invention relates to an apparatus and method for controlling a robot agricultural machine using a remote driving function. More specifically, it relates to a remote operation-based robot agricultural machine control device and method for performing various agricultural tasks simply and effectively by controlling the operation of the robot agricultural machine through a video stream transmitted from a remotely located robot agricultural machine. According to the present invention, it is possible to overcome the user's viewing angle limitation during work and minimize the user's steering control intervention by combining at least one camera capable of observing the front and surrounding space and a steering control device for assisting straight movement in the robot agricultural machine. can Also, as another example, the viewing angle limitation can be overcome by using a camera equipped with a wide-angle lens (fisheye lens).

본 발명에서 제안하는 영상을 이용한 원격 운전 기반의 로봇 농기계 제어장치와 방법은 과수농가의 방제작업을 대상으로 설명한다. 하지만, 본 발명에서 제안한 장치와 방법은 특정 농가의 특정 작업을 대상으로 하여 한정되지 않으며, 다른 농가의 다른 작업 및 다른 농기계에도 적용될 수 있다. The remote operation-based robot agricultural machine control apparatus and method using the video proposed in the present invention will be described for the control work of fruit farms. However, the apparatus and method proposed in the present invention are not limited to a specific work of a specific farm, and may be applied to other farms and other farm machines.

이하 설명에서, 로봇 농기계는 ISO8373:2012 Robots and Robotic Devices - Vocabulary 표준 문서에 따라 자율화 수준(degree of autonomy)이 낮은 로보틱 장치에 포함될 수 있다. 따라서, 본 발명에 의한 로봇 농기계는 기존의 트랙터, 방제기, 제초기, 이앙기, 수확기(예: 콤바인), 파종기 등 다양한 형태의 농기계에 일정 수준의 자율 기능이 탑재된 장치로 볼 수 있다. 다만, 상기 기술한 바와 같이 로봇 농기계에 적용되는 자율화 수준은 원격 운전을 포함하는 저수준(low-level)의 자율화 수준일 수 있다.In the following description, the robotic agricultural machine may be included in a robotic device having a low degree of autonomy according to ISO8373:2012 Robots and Robotic Devices - Vocabulary standard document. Therefore, the robot agricultural machine according to the present invention can be regarded as a device equipped with a certain level of autonomous function in various types of agricultural machines such as existing tractors, pesticides, weeders, rice transplanters, harvesters (eg, combines), and seeders. However, as described above, the level of autonomy applied to the robotic agricultural machine may be a low-level level of autonomy including remote driving.

도 1은 본 발명의 일 실시예에 따른 원격 운전 기술을 탑재한 로봇 농기계를 이용하여 과수환경에서 방제작업을 하는 경로의 예를 도시한다.1 shows an example of a route for control work in an orchard environment using a robot agricultural machine equipped with remote driving technology according to an embodiment of the present invention.

도 1을 참고하면, 로봇 농기계(110)는 출발지점부터 도착지점까지 직진, 우회전 및 좌회전을 스스로 수행할 수 있다. 작업 경로는 직진 이동 구간(130)과 곡선 이동 구간(120)으로 이루어질 수 있다. 도 1의 작업 경로는 방제 작업과 같은 특정 작업에 한정되지 않고, 제초, 이앙, 수확, 파종 등 다양한 작업에도 적용될 수 있다. 이하의 실시예들은 방제 작업을 수행하는 방제기를 예로 들어 설명하지만, 특정 농기계에 한정되지 않는다.Referring to FIG. 1 , the robot agricultural machine 110 may perform straight ahead, right turn, and left turn from the starting point to the ending point by itself. The work path may include a straight movement section 130 and a curved movement section 120 . The work path of FIG. 1 is not limited to a specific work such as control work, and may be applied to various works such as weeding, transplanting, harvesting, and sowing. The following embodiments will be described by way of an example of a pest control machine that performs a control operation, but is not limited to a specific agricultural machine.

사용자가 카메라를 장착한 방제기를 이용하여 원격 운전을 하는 경우, 사용자는 스마트폰 화면을 통해 방제기에 장착된 카메라로부터 수집된 주변 환경에 대한 비디오 스트림을 보면서, 방제기의 조향 핸들을 원격으로 제어할 수 있다. 사용자가 스마트폰 화면을 지속적으로 확인하면서 조향을 제어하는 것은 농장의 규모가 커짐에 따라 사용자에게 굉장한 피로감을 유발할 수 있다. 특히, 과수농가의 경우 과수와 지면이 유사한 지형 구조 및 색분포를 가지기 때문에 이러한 어려움(예: 피로감 유발)이 가중된다. 따라서, 본 발명은 직진 이동 구간(130)에서 로봇 농기계가 자율적으로 동작하도록 하고, 회전 동작이 필요한 곡선 이동 구간(120)에서 사용자가 개입하여 로봇 농기계를 직접 제어할 수 있는 방안을 제안한다. When a user remotely drives a pest control machine equipped with a camera, the user can remotely control the steering wheel of the control machine while viewing a video stream of the surrounding environment collected from the camera mounted on the control machine through a smartphone screen. there is. Controlling the steering while the user constantly checks the smartphone screen can cause great fatigue to the user as the scale of the farm grows. In particular, in the case of fruit farms, these difficulties (eg, causing fatigue) are aggravated because fruit trees and ground have similar topographical structures and color distributions. Therefore, the present invention proposes a method in which the robot agricultural machine autonomously operates in the straight movement section 130 and the user intervenes and directly controls the robot farm machine in the curved movement section 120 requiring a rotation operation.

도 2는 본 발명의 일 실시예에 따른 농기계를 원격 제어하기 위한 절차의 예를 도시한다. 도 2는 농업 작업을 수행하는 장치의 동작 방법을 예시한다.2 shows an example of a procedure for remotely controlling an agricultural machine according to an embodiment of the present invention. 2 illustrates a method of operation of an apparatus for performing agricultural work.

도 2를 참고하면, 장치는 적어도 하나의 카메라를 통해 장치의 주변 환경에 대한 정보를 수집한다(S201단계). 이때, 장치는 자율적으로 동작하거나, 사용자에 의해 원격으로 제어될 수 있다. 일 예로, 장치는 카메라를 장착한 로봇 농기계일 수 있다. 장치는 직진 구간에서는 자율 주행할 수 있고, 회전 구간에서는 사용자에 의해 제어될 수 있다. 장치 주변 환경에 대한 정보는 과수, 지형 등에 대한 촬영 영상, 주변 환경에 대해 측정한 센서 정보, GPS 정보일 수 있다. 일 예로, 로봇 농기계는 적어도 하나 이상의 카메라를 이용하여 로봇 농기계 주변 상황을 촬영할 수 있다. 사용자는 촬영 영상을 통해 로봇 농기계의 이동 및 작업 상황을 관찰할 수 있다. Referring to FIG. 2 , the device collects information about the surrounding environment of the device through at least one camera (step S201). In this case, the device may operate autonomously or may be controlled remotely by a user. As an example, the device may be a robotic agricultural machine equipped with a camera. The device can drive autonomously in a straight section and can be controlled by a user in a turning section. The information on the surrounding environment of the device may be captured images of fruit trees, topography, and the like, sensor information measured on the surrounding environment, and GPS information. For example, the robot agricultural machine may capture a situation around the robot agricultural machine using at least one camera. The user can observe the movement and work situation of the robot farm machine through the captured image.

장치는 자율주행모드에서, 수집한 정보에 기반하여 직진 구간에서 자율 주행을 수행한다(S203단계). 사용자는 자신의 디바이스를 이용하여 로봇 농기계가 직진 구간에서 자율주행을 수행하도록 제어할 수 있다. 디바이스는 주변 환경에 대한 정보를 출력할 수 있는 디스플레이 패널을 포함할 수 있다. 디바이스는 스마트폰, 태블릿 PC를 포함할 수 있다. 일 예로, 사용자는 자신의 디바이스를 통해 로봇 농기계가 촬영한 주변 환경에 대한 영상을 확인할 수 있다. 사용자의 스마트폰 화면에는 촬영 영상과 함께 로봇 농기계를 원격 운전하기 위한 인터페이스가 표시될 수 있다. 사용자는 촬영 영상을 통해 로봇 농기계의 주변 환경을 확인하면서, 인터페이스를 통해 로봇 농기계의 동작을 제어할 수 있다.In the autonomous driving mode, the device performs autonomous driving in a straight section based on the collected information (step S203). The user can control the robot agricultural machine to perform autonomous driving in a straight section using his/her device. The device may include a display panel capable of outputting information about the surrounding environment. Devices may include smartphones and tablet PCs. For example, a user may check an image of a surrounding environment captured by a robot agricultural machine through his/her device. An interface for remotely operating the robot agricultural machine may be displayed on the screen of the user's smartphone along with the captured image. The user can control the operation of the robot agricultural machine through the interface while checking the surrounding environment of the robot agricultural machine through the captured image.

장치는 사용자의 디바이스로부터 원격 제어모드를 지시하는 명령을 수신한다(S205단계). 일 예로, 로봇 농기계는 사용자의 디바이스로부터 직진 주행 모드해제에 대한 제어 정보를 수신할 수 있다. 일 예로, 직진 주행모드에서 동작하는 로봇 농기계는 사용자의 디바이스로부터 원격 제어모드 실행에 대한 제어 정보를 수신할 수 있다. 원격 제어모드를 지시하는 명령을 수신한 로봇 농기계는 직진 주행모드를 해제하고, 원격 제어모드를 실행할 수 있다. 원격 제어모드에서, 로봇 농기계는 사용자의 다른 제어 명령을 기다릴 수 있다.The device receives a command indicating a remote control mode from the user's device (step S205). For example, the robot farm machine may receive control information about the release of the straight driving mode from the user's device. For example, a robot agricultural machine operating in a straight driving mode may receive control information about execution of a remote control mode from a user's device. Upon receiving the command instructing the remote control mode, the robot agricultural machine may cancel the straight driving mode and execute the remote control mode. In the remote control mode, the robot farm machine can wait for other control commands from the user.

장치는 원격 제어모드에서의 주행을 위한 사용자의 동작 제어 정보를 수신한다(S207단계). 사용자는 디바이스로부터 출력되는 장치의 주변을 촬영한 영상을 통해 장치의 주변 상황을 확인할 수 있다. 사용자는 디바이스에 출력되는 인터페이스를 이용하여 장치에 대한 명령을 입력함으로써 장치의 동작을 제어할 수 있다. 일 예로, 사용자는 로봇 농기계가 자율주행으로 직진 구간을 이동하다가 회전 동작이 시작되는 위치인 과수열의 끝점에 도착하면 로봇 농기계의 직진 주행모드를 해제할 수 있다. 장치의 직진 주행모드가 해제되면 사용자는 직접 인터페이스에 포함된 좌회전, 우회전 및 유턴(U-Turn) 등의 아이콘(icon)을 이용하여 회전 동작을 수행하도록 조향각을 제어할 수 있다. 로봇 농기계가 회전 동작을 수행한 후 다음 직진 구간에 진입하면, 사용자는 직진 주행모드를 다시 사용할 수 있다. The device receives the user's motion control information for driving in the remote control mode (step S207). The user can check the surrounding situation of the device through the captured image of the surroundings of the device output from the device. A user may control the operation of the device by inputting a command to the device using an interface output to the device. As an example, the user may cancel the straight driving mode of the robot agricultural machine when the robot agricultural machine moves in a straight section by autonomous driving and arrives at the end point of the fruit sequence, which is the position where the rotational motion starts. When the straight driving mode of the device is released, the user can directly control the steering angle to perform a rotational operation using icons such as left turn, right turn, and U-turn included in the interface. When the robot agricultural machine enters the next straight section after performing a rotational motion, the user can use the straight driving mode again.

장치는 원격 제어모드에서, 동작 제어 정보에 기반하여 운행을 수행한다(S209단계). 장치는 사용자의 디바이스로부터 수신한 동작 제어 정보에 기초하여 운행을 수행할 수 있다. 일 예로, 로봇 농기계는 디바이스로부터 조향 제어각을 오른쪽으로 조정하는 지시 명령을 수신할 수 있다. 일 예로, 로봇 농기계는 사용자의 디바이스로부터 조향 제어각을 왼쪽으로 조정하는 지시 명령을 수신할 수 있다. 로봇 농기계는 동작 제어 정보에 기반하여 좌회전, 우회전 및 유턴(u-turn)을 수행할 수 있다.In the remote control mode, the device operates based on the motion control information (step S209). The device may perform navigation based on motion control information received from the user's device. For example, the robotic agricultural machine may receive a command to adjust the steering control angle to the right from the device. For example, the robotic agricultural machine may receive a command to adjust the steering control angle to the left from the user's device. The robot farm machine may perform left turn, right turn, and u-turn based on motion control information.

도 3은 본 발명의 일 실시예에 따른 원격 운전 기술을 탑재한 로봇 방제기를 도시한다.Figure 3 shows a robot sprayer equipped with remote driving technology according to an embodiment of the present invention.

도 3을 참고하면, 로봇 방제기(300)에 배치된 센서들을 확인할 수 있다. 제1 카메라(310)는 전방 주시용으로 사용될 수 있으며, 로봇 방제기의 전면부를 포함하여 전방의 환경을 촬영할 수 있다. 제2 카메라(320)는 로봇 방제기의 후면부에, 제1 카메라(310)보다 높은 곳에 위치되도록 설치될 수 있다. 제2 카메라(320)는 로봇 방제기(300)의 후면 높은 곳에 설치되므로 로봇 방제기(300)가 이동할 때 주변 공간을 안정적으로 확인할 수 있다. 제1 카메라(310) 및 제2 카메라(320)의 배치를 통해, 로봇 방제기(300)가 직진 이동하는 동안에는 운전자가 마치 운전석에 앉아서 전방을 바라보는 것과 같은 시야각을 확보할 수 있다. Referring to FIG. 3 , sensors disposed in the robot releaser 300 can be identified. The first camera 310 may be used for forward looking, and may photograph the front environment including the front part of the robot releaser. The second camera 320 may be installed so as to be positioned higher than the first camera 310 on the rear side of the robot releaser. The second camera 320 is installed at a high rear surface of the robot releaser 300, so that the robot releaser 300 can reliably check the surrounding space when moving. Through the arrangement of the first camera 310 and the second camera 320, while the robot control unit 300 is moving straight, it is possible to secure a viewing angle as if the driver is sitting in the driver's seat and looking forward.

도 4는 본 발명의 일 실시예에 따른 도 3의 로봇 농기계에 설치된 제1 카메라 및 제2 카메라가 촬영한 영상 화면의 예를 도시한다. 4 illustrates an example of an image screen captured by a first camera and a second camera installed in the robot farm machine of FIG. 3 according to an embodiment of the present invention.

도 4a을 참고하면, 제1 카메라에서 바라본 전방 공간을 촬영한 영상을 확인할 수 있다. 도 4b를 참고하면, 제2 카메라에서 바라본 주변 공간을 촬영한 영상을 확인할 수 있다. 제2 카메라가 촬영한 영상은 제1 카메라가 촬영한 영상보다 시야각이 넓다. 사용자는 제2 카메라가 촬영한 영상을 통해 직진 이동 후 우회전 또는 좌회전을 통해 곡선 구간을 이동하도록 로봇 농기계를 용이하게 운전할 수 있다. Referring to FIG. 4A , it is possible to check an image of a front space viewed from the first camera. Referring to FIG. 4B , an image of a surrounding space viewed from a second camera may be checked. The image captured by the second camera has a wider viewing angle than the image captured by the first camera. The user can easily drive the robot agricultural machine to move in a curved section through a right turn or a left turn after moving straight through the image captured by the second camera.

본 발명의 또 다른 실시예에 따라 로봇 농기계에 어안렌즈와 같은 초광각 렌즈를 탑재할 수 있다. 초광각 렌즈를 통해 입력된 촬영 영상은 주변부에 왜곡이 다소 발생하더라도 시야각이 획기적으로 커지기 때문에 원격으로 로봇 농기계를 회전이동(좌, 우회전 등)시키는 것이 더 수월할 수 있다. 따라서, 로봇 농기계에 어안렌즈와 같은 광각렌즈를 설치하는 경우에는 도 2에서 살펴본 바와 같이 두 개의 카메라를 사용하지 않을 수 있다. 일 예로, 초광각 렌즈를 사용하는 카메라는 제1 카메라 및 제2 카메라의 위치 중 하나에 설치될 수 있다. 설치된 카메라는 전방과 주변 공간을 동시에 볼 수 있도록 기울기 각도가 조절될 수 있다.According to another embodiment of the present invention, an ultra-wide-angle lens such as a fisheye lens may be mounted on a robot agricultural machine. Since the viewing angle of the captured image input through the ultra-wide-angle lens dramatically increases even if some distortion occurs in the periphery, it may be easier to rotate the robot agricultural machine remotely (left, right turn, etc.). Therefore, when a wide-angle lens such as a fisheye lens is installed in a robot agricultural machine, as shown in FIG. 2 , two cameras may not be used. For example, a camera using an ultra-wide-angle lens may be installed at one of positions of the first camera and the second camera. The tilt angle of the installed camera can be adjusted to simultaneously view the front and surrounding space.

도 5는 본 발명의 일 실시예에 따른 스마트폰에 구현한 로봇 농기계를 원격 운전하기 위한 사용자 인터페이스를 도시한다. 사용자는 스마트폰 앱을 통해 로봇 농제기를 원격으로 운전할 수 있다.5 illustrates a user interface for remotely driving a robot agricultural machine implemented in a smart phone according to an embodiment of the present invention. Users can remotely operate the robot farming machine through a smartphone app.

도 5를 참고하면, 사용자는 본 발명에 따라 시야각을 확장한 로봇 농기계의 촬영 영상을 스마트폰에 구현한 인터페이스(500)를 확인할 수 있다. 본 발명의 일 실시예에 따르면, 로봇 농기계는 직진 구간에서 3차원 점유격자지도를 생성하여 조향각을 제어함으로써 직진 구간에서 자율주행을 수행할 수 있다. 로봇 농기계는 로봇 방제기를 포함할 수 있다. 일 예로, 과수농장의 경우 로봇 방제기는 이동 중에 생성한 3차원 점유격자지도를 이용하여 과수열을 효과적으로 추종함으로써 직진 구간 및 회전 구간을 이동할 수 있다. Referring to FIG. 5 , a user may check an interface 500 implemented on a smartphone with a photographed image of a robot farm machine having an extended viewing angle according to the present invention. According to an embodiment of the present invention, the robot agricultural machine can perform autonomous driving in a straight section by generating a 3D occupancy grid map and controlling a steering angle in a straight section. The robotic farm machine may include a robot control machine. For example, in the case of an orchard farm, the robot pest control machine can move straight sections and rotation sections by effectively following fruit trees using a 3D occupancy grid map generated during movement.

사용자는 로봇 방제기가 자율주행으로 과수열의 끝점에 도착하면 로봇 방제기의 직진 주행 모드를 해제할 수 있다. 일 예로, 사용자는 디바이스에서 출력되는 로봇 방제기 원격 제어를 위한 인터페이스(이하 '인터페이스')(500)의 직진 주행모드 아이콘(510)을 이용하여 직진 주행모드를 해제할 수 있다. 또 다른 일 예로, 로봇 방제기는 과수열의 끝점에 도착하면 스스로 직진 주행모드를 해제할 수 있다. 직진 주행모드가 해제되면 사용자는 직접 로봇 방제기를 우회전, 좌회전 또는 유턴(U-Turn) 동작을 하도록 제어할 수 있다. 사용자는 인터페이스의 좌회전 아이콘(520) 및 우회전 아이콘(530)을 이용하여 회전 동작을 수행하도록 제어할 수 있다.The user can cancel the straight driving mode of the robot pest control machine when the robot control machine reaches the end point of the overheating by autonomous driving. For example, the user can cancel the straight driving mode by using the straight driving mode icon 510 of the interface (hereinafter referred to as 'interface') 500 for remote control of the robot releaser output from the device. As another example, the robot controller may release the straight driving mode by itself when it arrives at the end point of the overheating. When the straight driving mode is released, the user can directly control the robot controller to turn right, turn left, or make a U-turn. The user can control to perform a rotation operation using the left rotation icon 520 and the right rotation icon 530 of the interface.

로봇 방제기가 회전 동작을 수행한 후, 다음 직진 구간에 진입하면 사용자는 직진 주행모드를 다시 사용할 수 있다. 일 예로, 로봇 방제기가 다음 직진 구간에 성공적으로 진입하면 사용자는 직진주행 보조 작동 아이콘(510)을 다시 눌러 로봇 방제기가 자율적으로 주행하도록 할 수 있다. 로봇 방제기는 이러한 동작을 과수열마다 반복함으로써 전체 과수열에 대해 방제 작업을 완료할 수 있다. After the robot control machine performs a rotation operation, when entering the next straight section, the user can use the straight driving mode again. For example, when the robot controller successfully enters the next straight section, the user may press the straight-ahead auxiliary operation icon 510 again to allow the robot controller to autonomously drive. The robot control unit may complete the control operation for the entire fruit string by repeating this operation for each fruit string.

한편, 로봇 방제기가 과수열의 끝점을 감지하는 것은 방제 작업을 성공적으로 수행하기 위해 필수적이다. 본 발명에 따르면, 로봇 농기계는 과수열의 끝점을 정확히 감지하기 위해 도 3에서 살펴본 바와 같이 제1 카메라의 후면부에 제1 카메라보다 높이 위치한 제2 카메라를 통해 주변 공간에 대한 시야각을 넓힐 수 있다. 또 다른 일 예로, 광각렌즈 카메라를 제1 카메라 또는 제2 카메라의 위치에 설치함으로써 시야각을 넓힐 수 있다. 또한, 사용자의 상황에 따라 과수열의 끝점에 식별이 용이한 별도의 구조물이나 표식을 설치한다면 로봇 농기계의 원격 운전을 성능을 향상시킬 수 있다.On the other hand, it is essential for the robot control system to successfully perform the control operation by detecting the end point of overheating. According to the present invention, in order to accurately detect the end point of the fruit sequence, the robot agricultural machine can widen the viewing angle of the surrounding space through the second camera located at the rear of the first camera higher than the first camera, as shown in FIG. 3 . As another example, the viewing angle may be widened by installing the wide-angle lens camera at the location of the first camera or the second camera. In addition, if a separate easily identifiable structure or mark is installed at the end point of the fruit sequence according to the user's situation, the remote operation performance of the robot agricultural machine can be improved.

본 발명의 또 다른 실시예에 따르면, 도 2에서 살펴본 바와 같이 적어도 하나 이상의 카메라로 입력되는 로봇 농기계 주변 영상 및 RTK-GPS시스템을 이용하여, 곡선 구간에서의 회전 동작까지 로봇 농기계가 자율적으로 수행하도록 제어할 수 있다. 이때, 사용자는 비디오 스트림으로 전송되는 작업 상황을 모니터링하다가 예측하지 못한 상황이 발생하면 로봇 농기계를 직접 제어할 수 있다.According to another embodiment of the present invention, as shown in FIG. 2, by using the image around the robot agricultural machine input by at least one camera and the RTK-GPS system, the robot agricultural machine autonomously performs until the rotation operation in the curved section. You can control it. At this time, the user can directly control the robot agricultural machine when an unexpected situation occurs while monitoring the work status transmitted through the video stream.

RTK-GPS장비는 수 센티미터(cm) 급의 정확한 위치 정보를 제공하지만 가격이 비싸기 때문에 농기계에 적용하기 어려움이 있다. 그러나, RTK-GPS장비의 가격이 지속적으로 낮아지는 추세기 때문에, 향후 RTK-GPS시스템을 이용한 로봇 농기계의 회전 동작 자동화도 경제성 측면에서 가능할 수 있다. RTK-GPS equipment provides accurate location information on the order of several centimeters (cm), but is difficult to apply to agricultural machinery because of its high price. However, since the price of RTK-GPS equipment continues to decrease, automation of rotational motion of robot agricultural machinery using the RTK-GPS system may be possible in the future in terms of economic feasibility.

일 예로, 사용자는 과수농가에서 방제 작업 경로를 따라 로봇 방제기를 직접 운전할 수 있다. 이동 경로에 따라 로봇 방제기의 위치는 RTK-GPS장비를 통해 기록될 수 있다. 로봇 방제기는 위치를 기록하는 것을 완료한 후, 로봇 방제기의 이동 경로 중 과수열의 끝점에 대한 정보를 별도로 저장할 수 있다. 로봇 방제기는 직진 주행 보조장치를 이용하여 직진 구간에서는 사용자 개입 없이 자율적으로 이동할 수 있다. 로봇 방제기는 직진 동작을 수행하다가 RTK-GPS장비를 통해 저장한 과수열의 끝점에 도달하면 회전 동작을 스스로 수행할 수 있다. 일 예로, 과수열의 끝점에 도달했는지 여부는 로봇 방제기의 현재 위치와 기 저장된 과수열의 끝점 간의 거리가 기 설정한 값 이하인지 여부에 따라 결정될 수 있다. 사용자는 비디오 스트림을 통해 직선 구간 및 곡선 구간에서의 로봇 방제기의 동작을 모니터링함으로써 더욱 편리하게 방제 작업을 수행할 수 있다.For example, a user may directly drive a robot pest control machine along a control work path in an orchard farm. The position of the robot sprayer according to the movement path can be recorded through RTK-GPS equipment. After the robot releaser completes recording the location, information on the end point of the fruit sequence in the movement path of the robot releaser may be separately stored. The robot sprayer can move autonomously without user intervention in a straight section using a straight driving assist device. The robot pest control machine can perform a straight-ahead motion, and when it reaches the end point of the fruit sequence stored through the RTK-GPS device, it can perform a rotational motion by itself. For example, whether or not the end point of the fruit sequence has been reached may be determined according to whether the distance between the current position of the robot controller and the previously stored end point of the fruit sequence is equal to or less than a preset value. The user can perform the control operation more conveniently by monitoring the operation of the robot control machine in the straight section and the curved section through the video stream.

도 6은 본 발명에 따른 장치 구성의 일 예를 도시한다. 도 6을 참고하면, 디바이스는 메모리(602), 프로세서(603), 송수신부(604) 및 주변 장치(601)를 포함할 수 있다. 또한, 일 예로, 디바이스는 다른 구성을 더 포함할 수 있으며, 상술한 실시예로 한정되지 않는다. 이때, 일 예로, 디바이스는 로봇 농기계를 원격 제어하는 장치일 수 있다. 보다 상세하게는, 도 6의 디바이스는 반자율주행을 이용하여 로봇 농기계를 원격 제어하는 예시적인 하드웨어/소프트웨어 일 수 있다. 이때, 일 예로, 메모리(602)는 비이동식 메모리 또는 이동식 메모리일 수 있다. 일 예로, 주변장치(601)는 공간 영상을 검출하는 검출기를 포함할 수 있다. 또한, 일 예로, 주변 장치(601)는 디스플레이, GPS 또는 다른 주변기기들을 포함할 수 있으며, 상술한 실시예로 한정되지 않는다. 또한, 일 예로, 상술한 디바이스는 상기 송수신부(604)와 같이 통신 회로를 포함할 수 있으며, 이에 기초하여 외부 디바이스와 통신을 수행할 수 있다.6 shows an example of a device configuration according to the present invention. Referring to FIG. 6 , the device may include a memory 602 , a processor 603 , a transceiver 604 and a peripheral device 601 . Also, as an example, the device may further include other configurations, and is not limited to the above-described embodiment. At this time, as an example, the device may be a device for remotely controlling the robot agricultural machine. More specifically, the device of FIG. 6 may be exemplary hardware/software that remotely controls a robotic agricultural machine using semi-autonomous driving. At this time, for example, the memory 602 may be a non-removable memory or a removable memory. For example, the peripheral device 601 may include a detector for detecting a spatial image. Also, as an example, the peripheral device 601 may include a display, GPS, or other peripheral devices, and is not limited to the above-described embodiment. Also, as an example, the above-described device may include a communication circuit like the transceiver 604, and based on this, communication with an external device may be performed.

또한, 일 예로, 프로세서(603)는 범용 프로세서, DSP(digital signal processor), DSP 코어, 제어기, 마이크로 제어기, ASIC들(Application Specific Integrated Circuits), FPGA(Field Programmable Gate Array) 회로들, 임의의 다른 유형의 IC(integrated circuit) 및 상태 머신과 관련되는 하나 이상의 마이크로프로세서 중 적어도 하나 이상일 수 있다. 즉, 상술한 디바이스를 제어하기 위한 제어 역할을 수행하는 하드웨어적/소프트웨어적 구성일 수 있다. 이때, 프로세서(603)는 노드의 다양한 필수 기능들을 수행하기 위해 메모리(602)에 저장된 컴퓨터 실행가능한 명령어들을 실행할 수 있다. 또한, 프로세서(603)는 공간 영상의 평면화를 수행할 수 있다. 공간 영상과 2D 원본 영상 비교를 위한 PSNR을 측정할 수 있다. 또한, 프로세서는 PSNR과 특정 값을 비교할 수 있다. 또한, 프로세서는 PSNR이 특정 값보다 작은 경우 공간 영상의 평면화를 다시 수행할 수 있다. 프로세서(603)는 신호 코딩, 데이터 처리, 전력 제어, 입출력 처리 및 통신 동작 중 적어도 어느 하나를 제어할 수 있다. 또한, 프로세서(603)는 물리 계층, MAC 계층, 어플리케이션 계층들을 제어할 수 있다. 또한, 일 예로, 프로세서(603)는 액세스 계층 및/또는 어플리케이션 계층 등에서 인증 및 보안 절차를 수행할 수 있으며, 상술한 실시예로 한정되지 않는다.Also, as an example, the processor 603 may include a general purpose processor, a digital signal processor (DSP), a DSP core, a controller, a microcontroller, application specific integrated circuits (ASICs), field programmable gate array (FPGA) circuits, any other It may be at least one or more of a tangible integrated circuit (IC) and one or more microprocessors associated with a state machine. That is, it may be a hardware/software configuration that performs a control role for controlling the above-described device. At this time, the processor 603 may execute computer executable instructions stored in the memory 602 to perform various essential functions of the node. Also, the processor 603 may perform flattening of a spatial image. PSNR for comparison between spatial image and 2D original image can be measured. Also, the processor may compare PSNR with a specific value. Also, the processor may perform flattening of the spatial image again when the PSNR is less than a specific value. The processor 603 may control at least one of signal coding, data processing, power control, input/output processing, and communication operations. Also, the processor 603 may control a physical layer, a MAC layer, and an application layer. Also, as an example, the processor 603 may perform authentication and security procedures in an access layer and/or an application layer, and is not limited to the above-described embodiment.

또한, 일 예로, 프로세서(603)는 송수신부(604)를 통해 다른 장치들과 통신을 수행할 수 있다. 일 예로, 송수신부(604)는 프로세서(603)가 계산하여 PSNR 값 및 SSIM 값을 송수신할 수 있다. 또한, 송수신부(604)는 메모리(602)가 저장한 3차원 공간 이미지 또는 평면화된 공간 영상을 외부로 송신할 수 있다. 또한, 프로세서(603)는 컴퓨터 실행가능한 명령어들의 실행을 통해 노드가 네트워크를 통해 다른 노드들과 통신을 수행하게 제어할 수 있다. 즉, 본 발명에서 수행되는 통신이 제어될 수 있다. 일 예로, 반자율주행을 이용하여 로봇 농기계를 원격 제어하기 위해 수집한 정보를 사용자의 디바이스에 송신하도록 제어할 수 있다. 일 예로, 송수신부(604)는 안테나를 통해 RF 신호를 전송할 수 있으며, 다양한 통신망에 기초하여 신호를 전송할 수 있다. 또한, 일 예로, 안테나 기술로서 MIMO 기술, 빔포밍 등이 적용될 수 있으며, 상술한 실시예로 한정되지 않는다. 또한, 송수신부(604)를 통해 송수신한 신호는 변조 및 복조되어 프로세서(603)에 의해 제어될 수 있으며, 상술한 실시예로 한정되지 않는다.Also, as an example, the processor 603 may communicate with other devices through the transceiver 604 . For example, the transmitter/receiver 604 may transmit/receive the PSNR value and the SSIM value calculated by the processor 603. Also, the transceiver 604 may transmit a 3D spatial image or a flattened spatial image stored in the memory 602 to the outside. Also, the processor 603 may control a node to communicate with other nodes through a network through execution of computer executable instructions. That is, the communication performed in the present invention can be controlled. For example, information collected to remotely control a robot agricultural machine using semi-autonomous driving may be transmitted to a user's device. For example, the transceiver 604 may transmit an RF signal through an antenna and may transmit the signal based on various communication networks. In addition, as an example, MIMO technology, beamforming, etc. may be applied as an antenna technology, and is not limited to the above-described embodiment. In addition, a signal transmitted and received through the transceiver 604 may be modulated and demodulated and controlled by the processor 603, and is not limited to the above-described embodiment.

본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.Various embodiments of the present disclosure are intended to explain representative aspects of the present disclosure, rather than listing all possible combinations, and matters described in various embodiments may be applied independently or in combination of two or more.

또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. 예를 들어, 상기 프로세서는 컴퓨터로 판독가능한 프로그래밍 언어로 작성된 소프트웨어로 구현될 수도 있으며, 상기 범용 프로세서를 포함한 다양한 형태를 띨 수도 있다. 하나 혹은 그 이상의 결합으로 이루어진 하드웨어로 개시될 수도 있음은 자명하다.In addition, various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. For hardware implementation, one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), It may be implemented by a processor (general processor), controller, microcontroller, microprocessor, or the like. For example, the processor may be implemented as software written in a computer-readable programming language, and may take various forms including the general-purpose processor. It is obvious that it may be disclosed as hardware consisting of one or more combinations.

본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행 가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.The scope of the present disclosure is software or machine-executable instructions (eg, operating systems, applications, firmware, programs, etc.) that cause operations according to methods of various embodiments to be executed on a device or computer, and such software or It includes a non-transitory computer-readable medium in which instructions and the like are stored and executable on a device or computer.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로, 본 발명의 범위는 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.Since the present invention described above is capable of various substitutions, modifications, and changes without departing from the technical spirit of the present invention to those skilled in the art to which the present invention belongs, the scope of the present invention is not limited to the foregoing. It is not limited by one embodiment and accompanying drawings.

본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.In order to implement the method according to the present disclosure, other steps may be included in addition to the exemplified steps, other steps may be included except for some steps, or additional other steps may be included except for some steps.

본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.Various embodiments of the present disclosure are intended to explain representative aspects of the present disclosure, rather than listing all possible combinations, and matters described in various embodiments may be applied independently or in combination of two or more.

또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. In addition, various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. For hardware implementation, one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), It may be implemented by a processor (general processor), controller, microcontroller, microprocessor, or the like.

본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.The scope of the present disclosure is software or machine-executable instructions (eg, operating systems, applications, firmware, programs, etc.) that cause operations according to methods of various embodiments to be executed on a device or computer, and such software or It includes a non-transitory computer-readable medium in which instructions and the like are stored and executable on a device or computer.

Claims (1)

로봇 농기계를 원격 제어하기 위한 방법에 있어서,
적어도 하나의 카메라를 통해 상기 로봇 농기계 주변 환경에 대한 정보를 수집하는 단계;
자율주행모드에서, 상기 수집한 정보에 기반하여 직진 구간에서 자율 주행을 수행하는 단계;
사용자의 디바이스로부터 원격 제어모드를 지시하는 명령을 수신하는 단계;
상기 원격 제어모드에서의 주행을 위한 상기 사용자의 동작 제어 정보를 수신하는 단계;
상기 원격 제어모드에서, 상기 동작 제어 정보에 기반하여 곡선 구간에서 운행을 수행하는 단계를 포함하되,
상기 동작 제어 정보는, 상기 로봇 농기계의 조향 제어각을 지시하는 사용자의 동작 명령 정보를 포함하고,
상기 적어도 하나의 카메라는, 높이를 달리하여 설치된 적어도 하나 이상의 카메라 또는 적어도 하나 이상의 광각 카메라 중 적어도 하나인, 방법.
A method for remotely controlling a robotic agricultural machine,
Collecting information about the environment around the robot farm machine through at least one camera;
In an autonomous driving mode, performing autonomous driving in a straight section based on the collected information;
Receiving a command indicating a remote control mode from a user's device;
receiving motion control information of the user for driving in the remote control mode;
In the remote control mode, performing driving in a curved section based on the motion control information,
The motion control information includes user's motion command information indicating a steering control angle of the robot agricultural machine,
The method of claim 1 , wherein the at least one camera is at least one of at least one camera installed at different heights and at least one wide-angle camera.
KR1020220021277A 2022-02-18 2022-02-18 Method and apparatus for remotely controlling robotic agricultural machine KR20230124231A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220021277A KR20230124231A (en) 2022-02-18 2022-02-18 Method and apparatus for remotely controlling robotic agricultural machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220021277A KR20230124231A (en) 2022-02-18 2022-02-18 Method and apparatus for remotely controlling robotic agricultural machine

Publications (1)

Publication Number Publication Date
KR20230124231A true KR20230124231A (en) 2023-08-25

Family

ID=87847291

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220021277A KR20230124231A (en) 2022-02-18 2022-02-18 Method and apparatus for remotely controlling robotic agricultural machine

Country Status (1)

Country Link
KR (1) KR20230124231A (en)

Similar Documents

Publication Publication Date Title
US20240077883A1 (en) Vehicle Controllers For Agricultural And Industrial Applications
US11778934B2 (en) Agricultural lane following
US20200146203A1 (en) Geographic coordinate based setting adjustment for agricultural implements
EP2685810B1 (en) Human assisted milking robot and method
US20200326715A1 (en) Safety system for autonomous operation of off-road and agricultural vehicles using machine learning for detection and identification of obstacles
US9880560B2 (en) Vehicle auto-motion control system
US20170010619A1 (en) Automation kit for an agricultural vehicle
US8576056B2 (en) Vehicle guidance system
EP3156873A1 (en) Autonomous vehicle with improved simultaneous localization and mapping function
Murakami et al. Development of a teleoperation system for agricultural vehicles
US20210295230A1 (en) Assistance apparatus and assistance method
US20170034416A1 (en) Wireless camera system for mobile operations
US20210315159A1 (en) Information processing system, information processing device, and non-transitory storage medium
KR20230124231A (en) Method and apparatus for remotely controlling robotic agricultural machine
US20220044030A1 (en) Device and method for removing or killing weeds
WO2021132355A1 (en) Work vehicle
AU2021246257A1 (en) Agricultural systems and methods
Hameed et al. Task and motion planning for selective weed conrol using a team of autonomous vehicles
Praseena et al. Sensor Based AGROBOT for Sowing Seeds
KR102593906B1 (en) Automatic driving disaster prevention apparatus and control method thereof
KR20220081083A (en) Apparatus and method for controlling mobile object using remote driving
US20220408631A1 (en) Agricultural machine, and device and method for controlling agricultural machine
WO2023119986A1 (en) Agricultural machine and gesture recognition system for agricultural machine
US20230418293A1 (en) Automatic field boundary generation
Lee et al. Designing a Perception System for Safe Autonomous Operations in Agriculture