KR20210054347A - Automatic driving agricultural machine device supporting image-based path recognition and steering angle calculation techniques and operation method thereof - Google Patents

Automatic driving agricultural machine device supporting image-based path recognition and steering angle calculation techniques and operation method thereof Download PDF

Info

Publication number
KR20210054347A
KR20210054347A KR1020190140396A KR20190140396A KR20210054347A KR 20210054347 A KR20210054347 A KR 20210054347A KR 1020190140396 A KR1020190140396 A KR 1020190140396A KR 20190140396 A KR20190140396 A KR 20190140396A KR 20210054347 A KR20210054347 A KR 20210054347A
Authority
KR
South Korea
Prior art keywords
information
autonomous driving
area
steering angle
agricultural machine
Prior art date
Application number
KR1020190140396A
Other languages
Korean (ko)
Other versions
KR102304098B1 (en
Inventor
김국환
이시영
김현종
유병기
홍영기
이명훈
김경철
류희석
서다솜
Original Assignee
대한민국(농촌진흥청장)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국(농촌진흥청장) filed Critical 대한민국(농촌진흥청장)
Priority to KR1020190140396A priority Critical patent/KR102304098B1/en
Publication of KR20210054347A publication Critical patent/KR20210054347A/en
Application granted granted Critical
Publication of KR102304098B1 publication Critical patent/KR102304098B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B69/00Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
    • A01B69/007Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow
    • A01B69/008Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow automatic
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G05D2201/0201

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Soil Sciences (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mechanical Engineering (AREA)
  • Environmental Sciences (AREA)
  • Electromagnetism (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Guiding Agricultural Machines (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

The present invention relates to an automatic driving agricultural machine device, and more specifically, to an automatic driving agricultural machine device which is a technique for automatically recognizing a work area through image-based path recognition and steering angle calculation for an automatic driving agricultural machine to perform driving and cultivation work. An automatic driving agricultural machine device comprises: an image detection unit which shoots an image with at least one camera; a pattern learning unit which learns an image based on a deep learning algorithm and recognizes pattern information of a cultivation area based on the learned image; a reference path determining unit which determines boundaries between fields based on pattern information of cultivated areas, and determines a reference path based on boundaries between cultivated areas; a region determining unit which determines region information based on boundaries between regions; and an automatic driving control unit which calculates steering angle information based on the reference path and area information and controls the automatic driving agricultural machine to automatically drive based on the steering angle information. Through the present invention, the work area to perform driving and cultivation work may be automatically recognized.

Description

영상 기반 경로 인식 및 조향각 산출 기술을 지원하는 자율 주행 농기계 장치 및 그 동작 방법{AUTOMATIC DRIVING AGRICULTURAL MACHINE DEVICE SUPPORTING IMAGE-BASED PATH RECOGNITION AND STEERING ANGLE CALCULATION TECHNIQUES AND OPERATION METHOD THEREOF}An autonomous driving agricultural machinery device supporting image-based route recognition and steering angle calculation technology and its operation method {AUTOMATIC DRIVING AGRICULTURAL MACHINE DEVICE SUPPORTING IMAGE-BASED PATH RECOGNITION AND STEERING ANGLE CALCULATION TECHNIQUES AND OPERATION METHOD THEREOF}

본 발명은 자율 주행 농기계 장치로, 좀 더 자세하게는 자율 주행 농기계를 위한 영상 기반 경로 인식 및 조향각 산출을 통해 자동으로 작업구역을 인식하여 주행 및 경작 작업을 수행 할 수 있도록 하는 기술이다.The present invention is a self-driving agricultural machine device, and more specifically, is a technology that automatically recognizes a work area through image-based route recognition and steering angle calculation for an autonomously-driving agricultural machine to perform driving and cultivation work.

최근 국내 산업은 4차 산업혁명이란 슬로건을 통해 인공지능과 ICT 기술을 융합하여 미국, 독일, 일본과 같은 기술 선진국들의 수준에 견줄 산업시스템을 구축하고 있다. 이러한 산업 구조의 변화는 농업분야에도 영향을 미치게 되는데, 농업분야의 새로운 산업시스템의 대표적인 예로 스마트 팜이 손꼽히고 있다. Recently, the domestic industry is building an industrial system comparable to the level of advanced countries such as the United States, Germany, and Japan by fusion of artificial intelligence and ICT technology through the slogan of the Fourth Industrial Revolution. Such changes in the industrial structure also have an effect on the agricultural field, and the smart farm is a representative example of a new industrial system in the agricultural field.

자율주행기술은 기본적으로 도로를 주행하는 자동차에 적용되고 있지만, 군사적인 목적이나 농업기술에도 많이 이용되고 있다. 구체적으로 자율주행기술을 적용된 농기계로서 자율주행 트랙터가 있다. 자율주행트랙터는 스스로 알아서 움직이는 트랙터로서, 경작지의 위치와 크기를 측정하여 경작지에 맞는 작업경로를 설정하면, 작업경로를 따라 이동하면서 작업을 수행하도록 구성된다.Self-driving technology is basically applied to automobiles running on the road, but it is also widely used for military purposes and agricultural technologies. Specifically, there is an autonomous tractor as an agricultural machine to which autonomous driving technology is applied. The self-driving tractor is a tractor that moves by itself, and is configured to perform work while moving along the work path by measuring the position and size of the cultivated land and setting a work path suitable for the cultivated land.

한편, 자율주행 트랙터와 관련한 연구는 국내에서도 활발히 진행되어, 자동 경로 생성 등의 기술을 개발하였지만, 기술 선진국에 비해 측정 위치의 정확도, 노지 상태, 트랙터 주요 요소에 대한 모니터링을 크게 고려하지 않아 작업 안정성을 확보하는데 어려움이 있다, 또한, 트랙터 주행 시 조향과 속도로 인한 안정성 확보에 집중하여 작업자가 현 트랙터 위치별 작동 상황을 파악하기 어렵다.On the other hand, research related to autonomous tractors has been actively conducted in Korea, and technologies such as automatic route generation have been developed, but compared to advanced countries, the accuracy of the measurement position, field conditions, and monitoring of major tractor elements are not considered largely, so work stability. In addition, it is difficult for the operator to grasp the current operating conditions of each tractor position by focusing on securing stability due to steering and speed when driving the tractor.

다시 말해서, 대부분의 무인트랙터는 사람이 직접 운전하지 않기에 작업환경에 따른 변수가 발생하고 있으며, 변수들에 따라 주행 속도, 조향각이 변할 수 있고, 트랙터 부위별 장치들의 상태가 변할 수 있기 때문에 이로 인해 경로 이탈 혹은 트랙터 안정성에 문제가 생길 수 있다.In other words, since most of the unmanned tractors are not driven by humans directly, variables are generated according to the working environment, and the driving speed and steering angle may change according to the variables, and the condition of the devices for each tractor part may change. This can cause off-road or tractor stability problems.

본 발명은 경작 여부를 인식하고 조향각을 산출하여, 자율적으로 경작 및 주행을 수행하도록 하는 자율주행 농기계 시스템을 제공하고자 한다.An object of the present invention is to provide an autonomous farming machine system capable of autonomously performing cultivation and driving by recognizing whether or not cultivation is carried out and calculating a steering angle.

본 발명의 일 실시예에 따른 자율 주행 농기계 장치는 적어도 하나 이상의 카메라로 영상을 촬영하는 영상 탐지부, 딥러닝(Deep Learning) 알고리즘에 기초하여 영상을 학습하고, 학습된 영상에 기초하여 경작 영역의 패턴 정보를 인식하는 패턴 학습부, 경작 영역의 패턴 정보에 기초하여 영역간의 경계를 결정하고, 경작 영역간의 경계에 기초하여 기준 경로를 결정하는 기준 경로 결정부, 영역간의 경계에 기초하여 영역 정보를 결정하는 영역 결정부 및 기준 경로 및 영역 정보에 기초하여 조향각 정보를 산출하고, 자율 주행 농기계가 조향각 정보에 기초하여 자율 주행 하도록 제어하는 자율 주행 제어부를 포함한다.The autonomous driving agricultural machine apparatus according to an embodiment of the present invention is an image detector that captures an image with at least one camera, learns an image based on a deep learning algorithm, and learns an image based on the learned image. A pattern learning unit that recognizes pattern information, a reference path determination unit that determines boundaries between regions based on pattern information of cultivated regions, and determines a reference path based on the boundaries between cultivated regions, and provides region information based on the boundaries between regions. And an autonomous driving control unit that calculates steering angle information based on the determined region determination unit and reference path and region information, and controls the autonomously driving agricultural machine to autonomously travel based on the steering angle information.

본 발명의 일 실시예에 있어서, 패턴 학습부는 딥러닝(Deep Learning) 알고리즘을 통해 색깔, 형태, 재질 또는 구조 중 적어도 하나를 포함하는 패턴 정보를 인식한다.In an embodiment of the present invention, the pattern learning unit recognizes pattern information including at least one of color, shape, material, or structure through a deep learning algorithm.

본 발명의 일 실시예에 있어서, 영역 정보는 제 1영역 내지 제 3영역 정보를 포함하한다. 제 1영역은 경작지이고, 제 2영역은 미경작지이며, 제 3영역은 미경작영이다.In one embodiment of the present invention, the region information includes first to third region information. The first area is cultivated land, the second is uncultivated land, and the third is uncultivated.

본 발명의 일 실시예에 있어서, 자율 주행 제어부는 기준 경로의 기울기에 기초하여 기준 경로를 조향각 정보로 선형 변환하여 조향각 정보를 추출한다.In an embodiment of the present invention, the autonomous driving control unit extracts steering angle information by linearly converting the reference path into steering angle information based on the slope of the reference path.

본 발명의 일 실시예에 있어서, 조향각 정보는 자율 주행 농기계가 방향을 바꿀 때, 조향 바퀴의 스핀들이 선회하는 각도인 것을 특징으로 한다.In one embodiment of the present invention, the steering angle information is characterized in that the angle at which the spindle of the steering wheel turns when the autonomous driving agricultural machine changes direction.

본 발명의 일 실시예에 있어서, 자율 주행 제어부는 제 1경로 내지 제 3경로 정보를 포함하고 있으며, 제 1경로 정보는 경계와 미경작지만 존재할 때 자율 주행 농기계가 미경작지를 경작하는 정보이고, 제 2경로 정보는 자율 주행 농기계가 조향각 정보에 기초하여 회전하는 정보이며, 제 3경로 정보는 경작지와 미경작지가 존재할 때 자율 주행 농기계가 미경작지를 경작하는 제 3경로를 포함한다.In an embodiment of the present invention, the autonomous driving control unit includes information on the first route to the third route, and the first route information is information for the autonomous driving agricultural machine to cultivate the uncultivated land when only the boundary and the uncultivated exist. The second route information is information that the autonomously driving agricultural machine rotates based on the steering angle information, and the third route information includes the third route through which the autonomously driving agricultural machine cultivates uncultivated land when there are cultivated land and uncultivated land.

본 발명의 일 실시예에 있어서, 자율 주행 농기계는 미경작영역와 미경작지만 존재할 때, 제 1경로 정보에 기초하여 미경작영역에 따라 미경작지를 경작하고, 자율 주행 농기계는 미경작영역 인식 후, 제 2경로 정보에 기초하여 조향각 정보에 기초하여 회전하며, 자율 주행 농기계는 경작지와 미경작지가 존재할 때, 제 3경로 정보에 기초하여 미경작지를 경작한다.In an embodiment of the present invention, when only the uncultivated area and the uncultivated exist, the autonomous driving agricultural machine cultivates the uncultivated land according to the uncultivated area based on the first route information, and the autonomous driving agricultural machine is, after recognizing the uncultivated area, It rotates based on the steering angle information based on the second route information, and the autonomous driving agricultural machine cultivates the uncultivated land based on the third route information when there are cultivated land and uncultivated land.

본 발명의 일 실시예에 있어서, 자율 주행 제어부는 제 3경로에 기초하여 경작지와 미경작지의 일부가 겹치도록 경작한다.In an embodiment of the present invention, the autonomous driving control unit cultivates the cultivated land and part of the uncultivated land based on the third path.

본 발명의 일 실시예에 따른 자율 주행 농기계 장치의 동작 방법으로서, 영상 탐지부가 적어도 하나 이상의 카메라로 영상을 촬영하는 단계, 패턴 학습부가 딥러닝(Deep Learning) 알고리즘에 기초하여 영상을 학습하고, 학습된 영상에 기초하여 경작 영역의 패턴 정보를 인식하는 단계, 기준 경로 결정부가 경작 영역의 패턴 정보에 기초하여 영역간의 경계를 결정하고, 경작 영역간의 경계에 기초하여 기준 경로를 결정하는 단계, 영역 결정부가 영역간의 경계에 기초하여 영역 정보를 결정하는 단계 및 자율 주행 제어부가 기준 경로 및 영역 정보에 기초하여 조향각 정보를 산출하고, 자율 주행 농기계가 조향각 정보에 기초하여 자율 주행 하도록 제어하는 단계를 포함한다.A method of operating an autonomous driving agricultural machine device according to an embodiment of the present invention, comprising: capturing an image with at least one camera by an image detection unit, and by a pattern learning unit learning an image based on a deep learning algorithm, and learning Recognizing the pattern information of the cultivated area based on the cultivated image, the step of determining the boundary between the areas based on the pattern information of the cultivated area by the reference path determination unit, and determining the reference path based on the boundary between the cultivated areas, and determining the area Determining area information based on the boundary between the additional areas, the autonomous driving control unit calculating steering angle information based on the reference route and area information, and controlling the autonomously driving agricultural machine to autonomously travel based on the steering angle information. .

본 발명의 일 실시예에 있어서, 조향각 정보를 산출하는 단계는 자율 주행 농기계가 조향각 정보에 기초하여 자율 주행 하는 단계, 자율 주행 제어부가 기준 경로의 기울기를 산출하는 단계 및 기준 경로의 기울기에 기초하여 기준 경로를 조향각 정보로 선형 변환하여 추출하는 단계를 포함한다.In an embodiment of the present invention, the calculating of the steering angle information includes a step of autonomously driving by an autonomous driving farm machine based on the steering angle information, the step of calculating the slope of the reference path by the autonomous driving controller, and the slope of the reference path. And extracting and linearly converting the reference path into steering angle information.

본 발명의 일 실시예에 따른 자율 주행 농기계 시스템은 자율 주행 농기계 장치 및 경작 영역을 촬영하기 위한 카메라를 포함하고, 자율 주행 농기계 장치는적어도 하나 이상의 카메라로 영상을 촬영하는 영상 탐지부, 딥러닝(Deep Learning) 알고리즘에 기초하여 영상을 학습하고, 학습된 영상에 기초하여 경작 영역의 패턴 정보를 인식하는 패턴 학습부, 경작 영역의 패턴 정보에 기초하여 영역간의 경계를 결정하고, 경작 영역간의 경계에 기초하여 기준 경로를 결정하는 기준 경로 결정부, 영역간의 경계에 기초하여 영역 정보를 결정하는 영역 결정부 및 기준 경로 및 영역 정보에 기초하여 조향각 정보를 산출하고, 자율 주행 농기계가 조향각 정보에 기초하여 자율 주행 하도록 제어하는 자율 주행 제어부를 포함한다.An autonomous driving farm machine system according to an embodiment of the present invention includes an autonomous driving farm machine device and a camera for photographing a cultivated area, and the autonomous driving farm machine device includes an image detection unit, deep learning ( Deep Learning), a pattern learning unit that learns images based on algorithms and recognizes pattern information of cultivated areas based on the learned images, determines boundaries between areas based on pattern information of cultivated areas, and determines boundaries between cultivated areas. Based on the reference route determination unit for determining the reference route, the region determining unit for determining region information based on the boundary between the regions, and the steering angle information based on the reference route and region information, the autonomously driving agricultural machine is able to calculate the steering angle information based on the steering angle information. It includes an autonomous driving control unit that controls autonomous driving.

본 발명의 일 실시예에 따른 자율 주행 농기계 장치를 실행하기 위한 프로그램을 포함하는 컴퓨터 판독가능 기록매체에 있어서, 자율 주행 농기계 장치 방법은 컴퓨터에 영상 탐지부가 적어도 하나 이상의 카메라로 영상을 촬영하는 단계, 패턴 학습부가 딥러닝(Deep Learning) 알고리즘에 기초하여 영상을 학습하고, 학습된 영상에 기초하여 경작 영역의 패턴 정보를 인식하는 단계, 기준 경로 결정부가 경작 영역의 패턴 정보에 기초하여 영역간의 경계를 결정하고, 경작 영역간의 경계에 기초하여 기준 경로를 결정하는 단계, 영역 결정부가 영역간의 경계에 기초하여 영역 정보를 결정하는 단계 및 자율 주행 제어부가 기준 경로 및 영역 정보에 기초하여 조향각 정보를 산출하고, 자율 주행 농기계가 조향각 정보에 기초하여 자율 주행 하도록 제어하는 단계를 포함한다.In a computer-readable recording medium including a program for executing an autonomous driving agricultural machine device according to an embodiment of the present invention, the autonomous driving agricultural machine device method comprises: capturing an image with at least one camera by an image detection unit on a computer, A pattern learning unit learns an image based on a deep learning algorithm, and recognizes pattern information of a cultivation area based on the learned image, and a reference path determination unit determines the boundary between the areas based on the pattern information of the cultivation area. And determining the reference route based on the boundary between the cultivated areas, the region determining unit determining region information based on the boundary between the regions, and the autonomous driving control unit calculating steering angle information based on the reference route and region information And controlling the autonomous driving agricultural machine to autonomously travel based on the steering angle information.

본 발명을 통해 자동으로 작업구역을 인식하여 주행 및 경작 작업을 수행 할 수 있다.Through the present invention, it is possible to automatically recognize the work area and perform driving and cultivation work.

도 1은 본 발명의 일 실시예에 따른 자율 주행 농기계 장치의 블록도이다.
도 2는 본 발명의 일 실시예에 따른 자율 주행 농기계 시스템의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 경작 영역부의 경작 영역을 나타낸 도면이다.
도 4 내지 도 6은 본 발명의 일 실시예에 따른 자율 주행 제어부의 경로 정보에 따른 자율 주행 농기계의 주행하는 모습을 나타낸 도면이다.
도 7은 본 발명의 일 실시예에 있어서, 자율 주행 농기계 장치의 동작을 단계적으로 도시한 순서도이다.
1 is a block diagram of an autonomous driving agricultural machine device according to an embodiment of the present invention.
2 is a block diagram of an autonomous driving agricultural machine system according to an embodiment of the present invention.
3 is a view showing a cultivation area of the cultivation area unit according to an embodiment of the present invention.
4 to 6 are diagrams illustrating a driving state of an autonomous driving agricultural machine according to route information of an autonomous driving controller according to an embodiment of the present invention.
7 is a flow chart showing the operation of the autonomous driving agricultural machine device step by step according to an embodiment of the present invention.

이하, 본 명세서에 개시된 실시 예들을 도면을 참조하여 상세하게 설명하고 자 한다. 본문에서 달리 명시하지 않는 한, 도면의 유사한 참조번호들은 유사한 구성요소들을 나타낸다. 상세한 설명, 도면들 및 청구항들에서 상술하는 예시적인 실시 예들은 한정을 위한 것이 아니며, 다른 실시 예들이 이용될 수 있으며, 여기서 개시되는 기술의 사상이나 범주를 벗어나지 않는 한 다른 변경들도 가능하다. 당업자는 본 개시의 구성요소들, 즉 여기서 일반적으로 기술되고, 도면에 기재되는 구성요소들을 다양하게 다른 구성으로 배열, 구성, 결합, 도안할 수 있으며, 이것들의 모두는 명백하게 고안 되어지며, 본 개시의 일부를 형성하고 있음을 용이하게 이해할 수 있을 것이다. 도면에서 여러 층(또는 막), 영역 및 형상을 명확하게 표현하기 위하여 구성요소의 폭, 길이, 두께 또는 형상 등은 과장되어 표현될 수도 있다.Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the drawings. Unless otherwise specified in the text, like reference numbers in the drawings indicate like elements. The exemplary embodiments described in the detailed description, drawings, and claims are not intended to be limiting, and other embodiments may be used, and other modifications may be made without departing from the spirit or scope of the technology disclosed herein. Those skilled in the art may arrange, construct, combine, and design the components of the present disclosure, that is, the components generally described herein and described in the drawings in various different configurations, all of which are clearly devised, and the present disclosure It will be easy to understand that it forms a part of. In the drawings, in order to clearly express various layers (or films), regions, and shapes, the width, length, thickness, or shape of components may be exaggerated and expressed.

개시된 기술에 관한 설명은 구조적 내지 기능적 설명을 위한 실시 예에 불과하므로, 개시된 기술의 권리범위는 본문에 설명된 실시 예에 의하여 제한되는 것으로 해석되어서는 아니된다. 즉, 실시 예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 권리범위는 기술적 사상을 실현할 수 있는 균등물을 포함하는 것으로 이해되어야 한다.Since the description of the disclosed technology is merely an embodiment for structural or functional description, the scope of the rights of the disclosed technology should not be construed as being limited by the embodiments described in the text. That is, since the embodiments can be modified in various ways and have various forms, the scope of rights of the disclosed technology should be understood to include equivalents capable of realizing the technical idea.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, “포함하다” 또는 “가지다” 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions are to be understood as including plural expressions unless the context clearly indicates otherwise, and terms such as “comprises” or “have” refer to implemented features, numbers, steps, actions, components, parts, or It is to be understood that the combination is intended to designate the existence of, and does not preclude the possibility of the presence or addition of one or more other features or numbers, steps, actions, components, parts, or combinations thereof.

여기서 사용된 모든 용어들은 다르게 정의되지 않는 한, 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 용어들은 관련기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석 될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the field to which the disclosed technology belongs, unless otherwise defined. As defined in a commonly used dictionary, terms should be construed as having the meaning of the related technology in context, and cannot be construed as having an ideal or excessively formal meaning unless explicitly defined in the present application.

도 1은 본 발명의 일 실시예에 따른 자율 주행 농기계 장치(100)의 블록도이다.1 is a block diagram of an autonomous driving agricultural machine device 100 according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 자율 주행 농기계 시스템(10)의 블록도이다.2 is a block diagram of an autonomous driving agricultural machine system 10 according to an embodiment of the present invention.

도 1 및 도 2를 참조하면, 자율 주행 농기계 장치(100)는 영상 탐지부(110), 패턴 학습부(120), 기준 경로 결정부(130), 영역 결정부(140) 및 자율 주행 제어부(150)을 포함하고 있다. 자율 주행 농기계 시스템(10)은 자율 주행 농기계 장치(100), 카메라(20)를 포함하고 있다.1 and 2, the autonomous driving agricultural machine apparatus 100 includes an image detection unit 110, a pattern learning unit 120, a reference path determination unit 130, an area determination unit 140, and an autonomous driving control unit ( 150). The autonomous driving agricultural machine system 10 includes an autonomous driving agricultural machine device 100 and a camera 20.

영상 탐지부(110)는 적어도 하나 이상의 카메라(20)로 경작 영역의 영상을 촬영한다. 이때, 카메라(20)는 RGB카메라, IP카메라, HD-SDI 카메라, 아날로그 카메라, 화재감지 컬러카메라, 열화상 카메라, SD(720x486, NTSC)급의 해상도에서 HD(1920x5080, HD5080p) 카메라, IP줌 스피드 카메라 또는 CCTV 카메라 중 적어도 어느 하나를 포함한다. RTK-GPS나 레이저 센서와 같은 고가의 장비를 사용하지 않고 카메라(20)만을 사용하여 자율 주행에 활용할 수 있는 기술을 통해 생산비용 및 추가적인 기술 개발 비용을 줄일 수 있다.The image detector 110 captures an image of a cultivated area with at least one camera 20. At this time, the camera 20 is an RGB camera, IP camera, HD-SDI camera, analog camera, fire detection color camera, thermal imaging camera, HD (1920x5080, HD5080p) camera, IP zoom at SD (720x486, NTSC) level resolution. It includes at least one of a speed camera or a CCTV camera. Production costs and additional technology development costs can be reduced through technology that can be used for autonomous driving using only the camera 20 without using expensive equipment such as RTK-GPS or laser sensors.

영상 탐지부(110)는 카메라(20)의 설치 높이가 높을수록 양호한 영상 품질을 확보할 수 있으며, 이와 같이 각 카메라(20)가 차량의 사각지대를 해소할 수 있는 위치의 선정과 합성된 주변 영상의 화질 저하를 최소화할 수 있는 설치 위치와 시야각 설정이 중요하며, 차종 및 차의 크기에 따라 각각 다르게 설정할 수 있는 것이므로, 본 발명은 여기에 한정되지 않는다.The image detection unit 110 can secure a better image quality as the installation height of the camera 20 increases, and in this way, the selection of a location where each camera 20 can eliminate the blind spot of the vehicle and the combined surroundings Since it is important to set an installation location and a viewing angle that can minimize image quality deterioration, and can be set differently according to a vehicle type and a size of the vehicle, the present invention is not limited thereto.

또한, 카메라(20)를 자율 주행 차량의 전방, 후방, 좌측, 우측에 설치하였다면 4개의 카메라(20)를 통해 촬상된 영상을 보정처리 할 수 있으며, 자율 주행 농기계의 360°주변을 확인할 수 있다. 이때, 전방 카메라(20)와 후방 카메라(20)는 설치될 높이를 동일하게 하고, 좌, 우측 카메라(20)도 설치될 높이를 동일하게 하는 것이 영상들을 합성하여 주변의 경계를 추출하기 유리하다.In addition, if the camera 20 is installed in the front, rear, left, and right of the autonomous vehicle, the image captured through the four cameras 20 can be corrected, and the 360° periphery of the autonomous farming machine can be checked. . At this time, it is advantageous to combine the images and extract the borders around the front camera 20 and the rear camera 20 to have the same height to be installed and to have the same height for the left and right cameras 20 to be installed. .

패턴 학습부(120)는 딥러닝(Deep Learning) 알고리즘에 기초하여 영상을 학습하고, 학습된 영상에 기초하여 경작 영역의 패턴 정보를 인식한다.The pattern learning unit 120 learns an image based on a deep learning algorithm, and recognizes pattern information of a cultivation area based on the learned image.

패턴 학습부(120)는 적어도 하나 이상의 카메라(20)로 촬영된 영상 정보로부터 영역간의 경계를 추출하고, 경계 간의 패턴을 식별한다. 경작 영역의 경계들과 자율 주행 농기계(30)와의 거리정보를 산출하는 기술을 포함 할 수도 있다.The pattern learning unit 120 extracts a boundary between regions from image information captured by at least one camera 20 and identifies a pattern between the boundaries. It may also include a technology for calculating distance information between the boundaries of the cultivated area and the autonomously driving agricultural machine 30.

패턴 학습부(120)는 일반적으로 비슷한 색깔과 형태에 기초하여 영상처리하게 되면 영역 간의 오차율이 높다는 문제점을 해결하기 위해, 딥러닝(Deep Learning) 알고리즘을 통해 패턴 정보를 학습시킨다. The pattern learning unit 120 generally learns pattern information through a deep learning algorithm in order to solve the problem that the error rate between regions is high when image processing is performed based on similar colors and shapes.

이때, 딥러닝(Deep Learning) 알고리즘은 머신러닝에서의 전처리 과정을 신경망 아키텍처 내에 포함시켜 데이터 추출 자체도 스스로 학습하는 알고리즘이다. 또한 머신러닝 알고리즘은 각 특성에 관련된 값의 선형 조합을 계산하여 추론 결과를 도출하는 반면, 딥러능 알고리즘은 비선형 변환 기법의 조합을 통해 높은 수준의 추상화를 할 수 있다. 즉, 딥러닝 알고리즘은 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능 중 적어도 하나를 요약하는 작업을 전처리 과정 없이 자동으로 수행할 수 있다.At this time, the deep learning algorithm is an algorithm that learns the data extraction itself by including the preprocessing process in machine learning in the neural network architecture. In addition, machine learning algorithms derive inference results by calculating a linear combination of values related to each feature, whereas deeper algorithms can achieve a high level of abstraction through a combination of nonlinear transformation techniques. In other words, the deep learning algorithm can automatically perform a task of summarizing at least one of the core contents or functions in a large amount of data or complex data without a pre-processing process.

패턴 학습부(120)는 학습된 패턴 정보에 기초하여 영상 탐지부(110)에서 촬영된 경작 영역의 패턴 정보를 인식한다. 이때, 패턴 정보는 색깔, 형태, 재질 또는 구조 중 적어도 하나를 포함한다. The pattern learning unit 120 recognizes pattern information of a cultivation area photographed by the image detection unit 110 based on the learned pattern information. In this case, the pattern information includes at least one of color, shape, material, or structure.

기준 경로 결정부(130)는 경작 영역의 패턴 정보에 기초하여 영역간의 경계를 결정하고, 경작 영역간의 경계에 기초하여 기준 경로를 결정한다.The reference path determination unit 130 determines a boundary between regions based on pattern information of the cultivated regions, and determines a reference path based on the boundary between the cultivated regions.

기준 경로 결정부(130)는 카메라(20)를 통해 얻은 영상을 기설정된 패턴 정보에 기초하여 영역간의 경계를 구분한다. 구분된 경계에 기초하여 자율 주행 농기계(30)의 진행방향이 결정된다. The reference path determination unit 130 divides the image obtained through the camera 20 into boundaries between regions based on preset pattern information. The traveling direction of the autonomously driving agricultural machine 30 is determined based on the divided boundary.

예를 들어, 경작 영역의 색깔에 따라 영역간의 경계를 결정할 때 색깔이 진한 영역과 진하지 않은 영역, 그리고 색이 다른 영역이 존재한다면, 색에 따라 제 1내지 제 3 영역 경계 정보가 존재한다고 판단한다. 이때, 제 1영역 경계 정보는 색이 진한 영역과 색이 진하지 않은 영역 간의 경계이고, 제 2영역 경계 정보는 색이 진하지 않은 영역과 색이 다른 영역간의 경계이고, 제 3영역 경계 정보는 색이 진한 영역과 색이 다른 영역간의 경계이다. 기준 경로 결정부(130)는 제 1내지 제 3 영역 경계 정보에 기초하여 기존 경로를 설정한다.For example, when determining the boundary between the areas according to the color of the cultivated area, if there is a dark area, a non-dark area, and a different color area, it is determined that the first to third area boundary information exists according to the color. . At this time, the first region boundary information is a boundary between a dark color region and a non-dark color region, the second region boundary information is a boundary between a non-dark color region and a different color region, and the third region boundary information is a color. It is the boundary between dark areas and areas with different colors. The reference path determination unit 130 sets an existing path based on the first to third area boundary information.

영역 결정부(140)는 영역간의 경계에 기초하여 영역 정보를 결정한다.The region determining unit 140 determines region information based on boundaries between regions.

영역 정보는 영역간의 경계에 기초하여 결정할 수 있고, 영역간의 경계는 경작 영역의 패턴 정보에 기초하여 결정된다. 기설정된 패턴정보와 촬영된 영상을 비교하여 영역간의 경계를 결정하고, 결정된 영역간의 경계와 기설정된 영역 정보를 비교하여 영역을 결정한다. 이때, 기설정된 영역 정보는 패턴 정보에 의해 학습된 영역 정보이다.The region information can be determined based on the boundary between the regions, and the boundary between the regions is determined based on the pattern information of the cultivated region. A boundary between regions is determined by comparing preset pattern information with a photographed image, and a region is determined by comparing the determined boundary between regions with preset region information. At this time, the preset area information is area information learned by pattern information.

영역 결정부(140)는 제 1영역 내지 제 3영역 정보를 포함한다. 제 1영역 내지 제 3영역 정보는 기준 경로 결정부(130)의 제 1내지 제 3 영역 경계 정보에 기초하여 구분된다. 이때, 색이 진한 영역이 제 1영역이고, 색이 진하지 않은 영역이 제 2영역이며, 색이 다른 영역이 제 3영역이라면, 제 1영역은 경작지(42)이고, 제 2영역은 미경작지(43)이고, 제 3영역은 경계일 수 있다.The region determining unit 140 includes first to third region information. The first to third region information is classified based on the first to third region boundary information of the reference path determining unit 130. At this time, if the dark area is the first area, the dark area is the second area, and the different color area is the third area, the first area is the arable land 42, and the second area is uncultivated land ( 43), and the third area may be a boundary.

영역 결정부(140)는 경작 영역을 적어도 하나이상의 영역으로 분류한다. 각각의 영역에 포함되는 주행로의 수가 서로 동일한 소정값이 되도록 경작 영역을 분류할 수 있다. 또한, 경작이 도중에 중단되었을 경우에도, 경작 영역에 있어서 경작지(42)와 미경작지(43)의 지점이 교대로 나타나는 부분을 작은 범위로 제어할 수 있다. 따라서 경작지(42)와 미경작지(43)의 구분이 명확하게 되기 쉽고, 원활하게 경작을 재개할 수 있다. The area determining unit 140 classifies the cultivated area into at least one or more areas. The cultivation areas can be classified so that the number of travel paths included in each area becomes a predetermined value equal to each other. In addition, even when the cultivation is stopped halfway, the part in which the points of the cultivated land 42 and the uncultivated land 43 alternately appear in the cultivated area can be controlled in a small range. Therefore, the division between the cultivated land 42 and the uncultivated land 43 is easy to become clear, and the cultivation can be smoothly resumed.

자율 주행 제어부(150)는 기준 경로 및 상기 영역 정보에 기초하여 조향각 정보를 산출하고, 자율 주행 농기계(30)가 조향각 정보에 기초하여 자율 주행 하도록 제어한다.The autonomous driving control unit 150 calculates steering angle information based on the reference route and the region information, and controls the autonomous driving agricultural machine 30 to autonomously travel based on the steering angle information.

자율 주행 제어부(150)는 기준 경로의 기울기에 기초하여 기준 경로를 조향각 정보로 선형 변환하여 조향각 정보를 추출한다. 이때, 조향각 정보는 자율 주행 농기계(30)가 방향을 바꿀 때, 조향 바퀴의 스핀들이 선회하는 각도이다.The autonomous driving controller 150 extracts steering angle information by linearly converting the reference path into steering angle information based on the slope of the reference path. At this time, the steering angle information is an angle at which the spindle of the steering wheel turns when the autonomous driving agricultural machine 30 changes direction.

자율 주행 제어부(150)가 작업경로를 생성할 때 가장 중요하게 고려해야 할 사항으로는 경작 구간 사이의 거리, 선회 방법과 선회 거리, 회행 작업 수 또는 주행 경로와 순서 중 적어도 하나이다. 작업 구간 사이의 거리는 자율 주행 농기계(30)와 경작기의 고유작업 폭을 고려해야 하기 때문이며, 이를 고려하지 않으면 경작이 중첩되는 현상이 발생한다. When the autonomous driving control unit 150 generates a work path, the most important consideration is at least one of a distance between cultivation sections, a turning method and turning distance, the number of turning tasks, or a driving path and sequence. The distance between the working sections is because it is necessary to consider the inherent working width of the autonomous farming machine 30 and the cultivator, and if this is not taken into account, the phenomenon of cultivation overlap occurs.

또한, 자율 주행 농기계(30)의 구조상 작업 폭과 길이가 일반 차량보다 클 뿐만 아니라, 중량도 크고, 쉽게 후진, 회전을 할 수 없기 때문에, 최적의 선회 경로와 최적의 회행 작업 수를 고려해야 한다. 그리고 주행 경로와 순서가 계산이 부실할 경우에는, 작업이 겹치는 구간 혹은 작업을 못한 공간이 생기게 된다. 따라서, 이들 요인을 모두 고려하여 경작경로를 생성해야 한다.In addition, due to the structure of the autonomous driving agricultural machine 30, not only is the working width and length larger than that of a general vehicle, but also has a larger weight, and cannot be easily reversed or rotated, so an optimal turning path and an optimal number of turning operations must be considered. And if the calculation of the driving route and the order is poor, there is a section where the work overlaps or a space where work is not possible. Therefore, it is necessary to create a cultivation path by considering all of these factors.

자율 주행 제어부(150)는 제 1경로 내지 제 3경로 정보를 포함하고 있으며, 제 1경로 정보는 미경작영역(41)과 미경작지(43)만 존재할 때 자율 주향 농기계가 미경작지(43)를 경작하는 정보이다. 제 2경로 정보는 자율 주행 농기계(30)가 조향각 정보에 기초하여 회전하는 정보이고, 제 3경로는 경작지(42)와 미경작지(43)가 존재할 때 자율 주행 농기계(30)가 미경작지(43)를 경작하는 정보이다. 자율 주행 제어부(150)가 제 1경로 내지 제 3경로 정보에 기초하여 경작하는 방법에 대한 자세한 내용은 도 4 내지 도 6에서 후술될 것이다.The autonomous driving control unit 150 includes information on the first route to the third route, and the first route information means that when only the uncultivated area 41 and the uncultivated land 43 exist, the autonomous farming machine It is information to cultivate. The second route information is information that the autonomously driving agricultural machine 30 rotates based on the steering angle information, and the third route is the self-driving agricultural machine 30 when the cultivated land 42 and the uncultivated land 43 exist. It is information to cultivate). Details of a method for the autonomous driving controller 150 to cultivate based on information on the first route to the third route will be described later with reference to FIGS. 4 to 6.

도 3은 본 발명의 일 실시예에 따른 경작 영역부의 경작 영역을 나타낸 도면이다.3 is a view showing a cultivation area of the cultivation area unit according to an embodiment of the present invention.

도 1내지 도 3을 참조하면, 경작 영역은 기준 경로 결정부(130)에서 결정된 영역간의 경계에 기초하여 영역 결정부(140)에서 영역 정보를 결정한다. 1 to 3, the area determination unit 140 determines area information based on the boundary between areas determined by the reference path determination unit 130 in the cultivation area.

영역 정보는 영역간의 경계에 기초하여 결정할 수 있고, 영역간의 경계는 경작 영역의 패턴 정보에 기초하여 결정된다. 기설정된 패턴정보와 촬영된 영상을 비교하여 영역간의 경계를 결정하고, 결정된 영역간의 경계와 기설정된 영역 정보를 비교하여 영역을 결정한다. 이때, 기설정된 영역 정보는 패턴 정보에 의해 학습된 영역 정보이다.The region information can be determined based on the boundary between the regions, and the boundary between the regions is determined based on the pattern information of the cultivated region. A boundary between regions is determined by comparing preset pattern information with a photographed image, and a region is determined by comparing the determined boundary between regions with preset region information. At this time, the preset area information is area information learned by pattern information.

영역 결정부(140)는 제 1영역 내지 제 3영역 정보를 포함한다. 제 1영역 내지 제 3영역 정보는 기준 경로 결정부(130)의 제 1내지 제 3 영역 경계 정보에 기초하여 구분된다. 예를 들어, 색이 진한 영역이 제 1영역이고, 색이 진하지 않은 영역이 제 2영역이며, 색이 다른 영역이 제 3영역이라면, 제 1영역은 경작지(42)이고, 제 2영역은 미경작지(43)이고, 제 3영역은 미경작영역(41)일 수 있다.The region determining unit 140 includes first to third region information. The first to third region information is classified based on the first to third region boundary information of the reference path determining unit 130. For example, if a dark area is a first area, a non-dark area is a second area, and a different color area is a third area, the first area is the arable land 42, and the second area is The cultivated land 43 may be, and the third region may be an uncultivated region 41.

이때, 제 3영역은 기설정된 지형 패턴에 기초하여 자율 주행 농기계(30)가 경작 영역을 주행하며 제 3영역을 인지할 수 있다. 기설정된 지형 패턴에 기초하여 먼저 제 3영역을 인지함으로써, 경작 영역을 확립할 수 있고, 확립된 경작 영역은 제 1영역과 제 2영역으로 구분될 수 있다.In this case, in the third region, the autonomously driving agricultural machine 30 may recognize the third region while driving the cultivated region based on a preset terrain pattern. By first recognizing the third area based on a preset topographic pattern, the cultivated area can be established, and the established cultivated area can be divided into a first area and a second area.

도 4 내지 도 6은 본 발명의 일 실시예에 따른 자율 주행 제어부(150)의 경로 정보에 따른 자율 주행 농기계(30)의 주행하는 모습을 나타낸 도면이다.4 to 6 are views showing a state of driving the autonomous driving agricultural machine 30 according to route information of the autonomous driving control unit 150 according to an embodiment of the present invention.

도 4내지 도 6을 참조하면 도 4는 자율 주행 제어부(150)의 제 1경로 정보에 따른 자율 주행 농기계(30)의 주행하는 모습이고, 도 5는 자율 주행 제어부(150)의 제 2경로 정보에 따른 자율 주행 농기계(30)의 주행하는 모습이며, 도 6은 자율 주행 제어부(150)의 제 3경로 정보에 따른 자율 주행 농기계(30)의 주행하는 모습이다.4 to 6, FIG. 4 is a view of the autonomous driving agricultural machine 30 driving according to the first route information of the autonomous driving control unit 150, and FIG. 5 is the second route information of the autonomous driving control unit 150. It is a state of driving of the autonomously driving agricultural machine 30 according to, and FIG. 6 is a state of driving of the autonomously driving agricultural machine 30 according to the third route information of the autonomous driving control unit 150.

도 4를 참조하면, 제 1경로 정보는 미경작영역(41)과 미경작지(43)만 존재할 때 자율 주향 농기계가 미경작지(43)를 경작하는 정보이다. Referring to FIG. 4, the first path information is information on which autonomously oriented agricultural machinery cultivates the uncultivated land 43 when only the uncultivated area 41 and the uncultivated land 43 exist.

제 1경로 정보는 일반적으로 경작 영역의 첫 경작을 진행할 경우로, 미경작지(43)와 미경작영역(41)이 존재하는 구간에서 자율 주행 농기계(30)의 진행방향을 미경작영역(41)에 따르는 것으로 결정하고, 진행방향에 기초하여 자율 주행 농기계(30)가 진행하며 미경작지(43)의 경작을 진행하게 된다. The first route information is generally the case of first cultivation in the cultivated area, and the direction of the autonomous driving agricultural machine 30 in the section in which the uncultivated area 43 and the uncultivated area 41 exist is indicated in the uncultivated area 41 It is determined to comply with, and based on the direction of progress, the autonomous driving agricultural machine 30 proceeds, and the cultivation of the uncultivated land 43 proceeds.

도 5를 참조하면, 제 2경로 정보는 자율 주행 농기계(30)가 조향각 정보에 기초하여 회전하는 정보이다.Referring to FIG. 5, the second route information is information about which the autonomously driving agricultural machine 30 rotates based on the steering angle information.

제 2경로 정보는 경작 진행 중 미경작영역(41)을 인식했을 때, 미경작지(43)를 경작하기 위해 조향각 정보에 기초하여, 회전하고 미경작지(43)의 경작을 진행하게 된다. 이때, 조향각 정보는 자율 주행 농기계(30)가 방향을 바꿀 때 조향 바퀴의 스핀들이 선회하는 각도인 것을 특징으로 한다. 조향각 정보는 기준 경로 결정부(130)에서 결정된 영역간 경계의 기울기에 기초하여 기준 경로를 조향각으로 선형 변환하여 조향각 정보를 추출한다. When the second path information recognizes the uncultivated area 41 during cultivation, the uncultivated land 43 is rotated based on the steering angle information in order to cultivate the uncultivated land 43 and the cultivation of the uncultivated land 43 is proceeded. At this time, the steering angle information is characterized in that the angle at which the spindle of the steering wheel turns when the autonomous driving agricultural machine 30 changes direction. The steering angle information is linearly converted to a steering angle based on the slope of the boundary between regions determined by the reference path determining unit 130 to extract steering angle information.

예를 들어, 직진주행을 하던 자율 주행 차량이 좌측으로 돌아가는 코너로 돌아야할 경우에 기준 경로, 영역 정보 및 조향각 정보에 기초하여 자율 주행 차량의 바퀴의 우측에 대한 조향각을 제한하면서, 좌측의 조향각 제한 각도를 설정하게 된다.For example, when an autonomous vehicle traveling straight ahead needs to turn to a corner turning to the left, the steering angle of the left side is restricted while limiting the steering angle to the right of the wheel of the autonomous vehicle based on the reference route, area information, and steering angle information. You will set the angle.

또한, 자율 주행 농기계(30)의 속도와 조향각 정보에 기초하여 자율 주행 자동차의 주행방향을 산출하면 얼마 후에 자율 주행 농기계(30)가 미경작영역(41)과 접촉될 것인지 유추가 가능하다.In addition, if the driving direction of the autonomous vehicle is calculated based on the speed and steering angle information of the autonomous farming machine 30, it is possible to infer how long the autonomously driving farming machine 30 will contact the uncultivated area 41.

도 6을 참조하면, 제 3경로 정보는 경작지(42)와 미경작지(43)가 존재할 때 자율 주행 농기계(30)가 미경작지(43)를 경작하는 정보이다.Referring to FIG. 6, the third route information is information on which the autonomously driving agricultural machine 30 cultivates the uncultivated land 43 when the cultivated land 42 and the uncultivated land 43 exist.

제 3경로 정보는 제 1경로 정보로 경작을 진행하고 미경작영역(41)을 만나 제 2경로 정보에 기초하여 회전을 한 후에 경작지(42)와 미경작지(43)의 미경작영역(41)에서 미경작지(43)의 경작을 진행하게 된다. 제 3경로 정보에 기초하여 경작을 진행할 때는 경작지(42)와 미경작지(43)가 겹치도록 경로를 설정하여 보정인식을 할 수 있도록 한다. 보정인식을 통해 정확한 경작을 진행할 수 있다.The third route information is the uncultivated area 41 of the cultivated land 42 and the uncultivated land 43 after cultivation proceeds with the first route information, encounters the uncultivated area 41 and rotates based on the second route information. The cultivation of the uncultivated land 43 is in progress. When cultivation is performed based on the third route information, a path is set so that the cultivated land 42 and the uncultivated land 43 overlap so that correction recognition can be performed. Accurate cultivation can be carried out through correction recognition.

도 7은 본 발명의 일 실시예에 있어서, 자율 주행 농기계 장치(100)의 동작을 단계적으로 도시한 순서도이다.7 is a flow chart showing the operation of the autonomous driving agricultural machine device 100 step by step according to an embodiment of the present invention.

도 7을 참조하면, S21단계에서 영상탐지부가 경작을 진행할 경작 영역을 촬영한다.Referring to FIG. 7, in step S21, the image detection unit photographs a cultivated area to be cultivated.

예를 들어, 카메라(20)를 자율 주행 농기계(30)의 전방, 후방, 좌측, 우측에 설치하였다면 4개의 카메라(20)를 통해 촬상된 영상을 보정처리 할 수 있으며, 자율 주행 농기계(30)의 360°주변을 확인할 수 있다. For example, if the camera 20 is installed in the front, rear, left, and right of the autonomous farming machine 30, the image captured through the four cameras 20 can be corrected, and the autonomous driving farming machine 30 You can check the 360° surrounding of.

S22단계에서 패턴 학습부(120)가 촬영된 영상에 기초하여 패턴을 학습한다.In step S22, the pattern learning unit 120 learns a pattern based on the captured image.

예를 들어, 패턴 학습부(120)는 딥러닝(Deep Learning) 알고리즘에 기초하여 적어도 하나 이상의 카메라(20)로 촬영된 영상 정보를 학습한다. For example, the pattern learning unit 120 learns image information captured by at least one camera 20 based on a deep learning algorithm.

S23단계에서 기준 경로 결정부(130)가 촬영된 영상을 기설정된 패턴에 기초하여 영역간의 경계를 구분한다.In step S23, the reference path determination unit 130 divides the boundary between regions on the basis of a preset pattern on the captured image.

예를 들어, 학습된 영상에 기초하여 경작 영역의 패턴 정보를 인식하고, 인식된 패턴 정보에 기초하여 경작 영역의 영역간의 경계를 추출한다. 이때, 패턴 정보는 색깔, 형태, 재질 또는 구조 중 적어도 하나를 포함한다. For example, the pattern information of the cultivation area is recognized based on the learned image, and the boundary between the areas of the cultivation area is extracted based on the recognized pattern information. In this case, the pattern information includes at least one of color, shape, material, or structure.

S24단계에서 기준 경로 결정부(130)가 영역간의 경계에 기초하여 기존 경로를 설정한다.In step S24, the reference path determination unit 130 sets an existing path based on the boundary between regions.

예를 들어, 기준 경로 결정부(130)가 경작 영역의 색깔에 따라 영역간의 경계를 결정할 때 색깔이 진한 영역과 진하지 않은 영역, 그리고 색이 다른 영역이 존재한다면, 색에 따라 제 1내지 제 3 영역 경계 정보가 존재한다고 판단한다. 기준 경로 결정부(130)는 제 1내지 제 3 영역 경계 정보에 기초하여 기존 경로를 설정한다.For example, when the reference path determining unit 130 determines the boundary between the areas according to the color of the cultivated area, if there are areas with a dark color, a non-dark area, and a different color area, the first to third areas according to the color It is determined that area boundary information exists. The reference path determination unit 130 sets an existing path based on the first to third area boundary information.

S25단계에서 영역 결정부(140)가 영역간의 경계에 기초하여 영역 정보를 결정한다.In step S25, the region determining unit 140 determines region information based on the boundary between regions.

예를 들어, 제 1영역 내지 제 3영역 정보를 포함하고 제 1영역 내지 제 3영역 정보는 기준 경로 결정부(130)의 제 1내지 제 3 영역 경계 정보에 기초하여 구분된다. 이때, 제 1영역은 경작지(42)이고, 제 2영역은 미경작지(43)이고, 제 3영역은 미경작영역(41)일 수 있다.For example, it includes first to third region information, and the first to third region information is classified based on the first to third region boundary information of the reference path determination unit 130. In this case, the first region may be the cultivated land 42, the second region may be the uncultivated land 43, and the third region may be the uncultivated region 41.

S26단계에서 자율 주행 제어부(150)가 경로 정보에 기초하여 경작 영역을 주행한다.In step S26, the autonomous driving control unit 150 drives the cultivated area based on the route information.

예를 들어, 자율 주행 제어부(150)는 기준 경로의 기울기에 기초하여 기준 경로를 조향각 정보로 선형 변환하여 조향각 정보를 추출한다. 이때, 조향각 정보는 자율 주행 농기계(30)가 방향을 바꿀 때, 조향 바퀴의 스핀들이 선회하는 각도이다. 자율 주행 제어부(150)는 제 1경로 내지 제 3경로 정보를 포함하고 있고 경작 영역 주행시에 필요한 조향각 정보에 기초하여 자율 주행 농기계(30)의 바퀴의 스핀 정보를 제어한다.For example, the autonomous driving controller 150 extracts steering angle information by linearly converting the reference path into steering angle information based on the slope of the reference path. At this time, the steering angle information is the angle at which the spindle of the steering wheel turns when the autonomous driving agricultural machine 30 changes direction. The autonomous driving control unit 150 includes information on the first route to the third route and controls the spin information of the wheel of the autonomously driving agricultural machine 30 based on steering angle information required for driving in the cultivated area.

본 출원은 컴퓨터에 자율 주행 농기계 장치의 동작 방법으로서, 영상 탐지부가 적어도 하나 이상의 카메라로 영상을 촬영하는 단계, 패턴 학습부가 딥러닝(Deep Learning) 알고리즘에 기초하여 영상을 학습하고, 학습된 영상에 기초하여 경작 영역의 패턴 정보를 인식하는 단계, 기준 경로 결정부가 경작 영역의 패턴 정보에 기초하여 영역간의 경계를 결정하고, 경작 영역간의 경계에 기초하여 기준 경로를 결정하는 단계, 영역 결정부가 영역간의 경계에 기초하여 영역 정보를 결정하는 단계 및 자율 주행 제어부가 기준 경로 및 영역 정보에 기초하여 조향각 정보를 산출하고, 자율 주행 농기계가 조향각 정보에 기초하여 자율 주행 하도록 제어하는 단계를 실행시키기 위하여 매체에 저장된 컴퓨터프로그램을 제공한다.The present application is a method of operating an autonomous driving agricultural machine device on a computer, wherein the image detection unit captures an image with at least one camera, the pattern learning unit learns an image based on a deep learning algorithm, and Recognizing the pattern information of the cultivated area based on the pattern information, the reference path determining unit determining a boundary between the areas based on the pattern information of the cultivating area, determining a reference path based on the boundary between the cultivating areas, and the area determining unit In order to execute the step of determining area information based on the boundary, the autonomous driving control unit calculating steering angle information based on the reference route and area information, and controlling the autonomous driving agricultural machine to autonomously travel based on the steering angle information. Provides stored computer programs.

10 : 자율 주행 농기계 시스템
20 : 카메라
30 : 자율 주행 농기계
41 : 미경작영역
42 : 경작지
43 : 미경작지
100 : 자율 주행 농기계 장치
110 : 영상 탐지부
120 : 패턴 학습부
130 : 기준 경로 결정부
140 : 영역 결정부
150 : 자율 주행 제어부
10: autonomous driving agricultural machine system
20: camera
30: autonomous driving agricultural machinery
41: uncultivated area
42: arable land
43: Uncultivated land
100: autonomous driving agricultural machinery device
110: image detection unit
120: Pattern Learning Department
130: reference path determination unit
140: area determination unit
150: autonomous driving control unit

Claims (12)

적어도 하나 이상의 카메라로 영상을 촬영하는 영상 탐지부;
딥러닝(Deep Learning) 알고리즘에 기초하여 상기 영상을 학습하고, 학습된 영상에 기초하여 경작 영역의 패턴 정보를 인식하는 패턴 학습부;
상기 경작 영역의 패턴 정보에 기초하여 영역간의 경계를 결정하고, 상기 경작 영역간의 경계에 기초하여 기준 경로를 결정하는 기준 경로 결정부;
상기 영역간의 경계에 기초하여 영역 정보를 결정하는 영역 결정부; 및
상기 기준 경로 및 상기 영역 정보에 기초하여 조향각 정보를 산출하고, 자율 주행 농기계가 상기 조향각 정보에 기초하여 자율 주행 하도록 제어하는 자율 주행 제어부;
를 포함하는 자율 주행 농기계 장치.
An image detector for capturing an image with at least one camera;
A pattern learning unit that learns the image based on a deep learning algorithm and recognizes pattern information of a cultivation area based on the learned image;
A reference path determining unit determining a boundary between regions based on the pattern information of the cultivated regions and determining a reference path based on the boundary between the cultivating regions;
A region determining unit that determines region information based on the boundary between the regions; And
An autonomous driving control unit that calculates steering angle information based on the reference path and the region information, and controls autonomously driving agricultural machines to autonomously travel based on the steering angle information;
Self-driving agricultural machine device comprising a.
제 1항에 있어서,
상기 패턴 학습부는 상기 딥러닝(Deep Learning) 알고리즘을 통해 색깔, 형태, 재질 또는 구조 중 적어도 하나를 포함하는 패턴 정보를 인식하는 자율 주행 농기계 장치.
The method of claim 1,
The pattern learning unit recognizes pattern information including at least one of color, shape, material, or structure through the deep learning algorithm.
제1항에 있어서,
상기 영역 정보는 제 1영역 내지 제 3영역 정보를 포함하고,
상기 제 1영역은 경작지이고,
상기 제 2영역은 미경작지이며,
상기 제 3영역은 미경작영역인 자율 주행 농기계 장치.
The method of claim 1,
The region information includes first to third region information,
The first area is arable land,
The second area is uncultivated land,
The third area is an uncultivated area, the autonomous driving agricultural machine device.
제1항에 있어서,
상기 자율 주행 제어부는,
상기 기준 경로의 기울기에 기초하여 상기 기준 경로를 상기 조향각 정보로 선형 변환하여 상기 조향각 정보를 추출하는 자율 주행 농기계 장치.
The method of claim 1,
The autonomous driving control unit,
An autonomous driving agricultural machine device for extracting the steering angle information by linearly converting the reference path into the steering angle information based on the slope of the reference path.
제4항에 있어서,
상기 조향각 정보는 상기 자율 주행 농기계가 방향을 바꿀 때, 조향 바퀴의 스핀들이 선회하는 각도인 것을 특징으로 하는 자율 주행 농기계 장치.
The method of claim 4,
The steering angle information is an autonomous driving farm machine apparatus, characterized in that when the autonomous driving farm machine changes direction, the spindle of the steering wheel turns.
제4항에 있어서,
상기 자율 주행 제어부는 제 1경로 내지 제 3경로 정보를 포함하고 있으며,
상기 제 1경로 정보는 미경작영역와 미경작지만 존재할 때 상기 자율 주행 농기계가 미경작지를 경작하는 정보이고,
상기 제 2경로 정보는 상기 자율 주행 농기계가 조향각 정보에 기초하여 회전하는 정보이며,
상기 제 3경로 정보는 경작지와 미경작지가 존재할 때 상기 자율 주행 농기계가 미경작지를 경작하는 제 3경로를 포함하는 자율 주행 농기계 장치.
The method of claim 4,
The autonomous driving control unit includes first route to third route information,
The first route information is information on which the autonomous driving agricultural machine cultivates the uncultivated land when there is only an uncultivated area and an uncultivated field,
The second route information is information that the autonomously driving agricultural machine rotates based on steering angle information,
The third route information includes a third route through which the autonomous driving agricultural machine cultivates uncultivated land when there are cultivated land and uncultivated land.
제 6항에 있어서,
상기 자율 주행 농기계는 상기 미경작영역와 상기 미경작지만 존재할 때, 상기 제 1경로 정보에 기초하여 상기 미경작영역에 따라 상기 미경작지를 경작하고,
상기 자율 주행 농기계는 상기 미경작영역 인식 후, 상기 제 2경로 정보에 기초하여 조향각 정보에 기초하여 회전하며,
상기 자율 주행 농기계는 상기 경작지와 상기 미경작지가 존재할 때, 상기 제 3경로 정보에 기초하여 상기 미경작지를 경작하는 자율 주행 농기계 장치.
The method of claim 6,
When only the uncultivated area and the uncultivated exist, the autonomous driving agricultural machine cultivates the uncultivated land according to the uncultivated area based on the first route information,
The autonomous driving agricultural machine rotates based on steering angle information based on the second route information after recognizing the uncultivated area,
The autonomous driving agricultural machine is an autonomous driving agricultural machine device that cultivates the uncultivated land based on the third route information when the cultivated land and the uncultivated land exist.
제7항에 있어서,
상기 자율 주행 제어부는 상기 제 3경로에 기초하여 상기 경작지와 미경작지의 일부가 겹치도록 경작하는 자율 주행 농기계 장치.
The method of claim 7,
The autonomous driving control unit cultivates the cultivated land and a part of the uncultivated land based on the third path.
자율 주행 농기계 장치의 동작 방법에 있어서,
영상 탐지부가 적어도 하나 이상의 카메라로 영상을 촬영하는 단계;
패턴 학습부가 딥러닝(Deep Learning) 알고리즘에 기초하여 상기 영상을 학습하고, 학습된 영상에 기초하여 경작 영역의 패턴 정보를 인식하는 단계;
기준 경로 결정부가 상기 경작 영역의 패턴 정보에 기초하여 영역간의 경계를 결정하고, 상기 경작 영역간의 경계에 기초하여 기준 경로를 결정하는 단계;
영역 결정부가 상기 영역간의 경계에 기초하여 영역 정보를 결정하는 단계; 및
자율 주행 제어부가 상기 기준 경로 및 상기 영역 정보에 기초하여 조향각 정보를 산출하고, 자율 주행 농기계가 상기 조향각 정보에 기초하여 자율 주행 하도록 제어하는 단계;
를 포함하는 자율 주행 농기계 장치의 동작 방법.
In the operation method of the autonomous driving agricultural machinery device,
Capturing an image with at least one camera by an image detector;
Learning the image based on a deep learning algorithm by a pattern learning unit and recognizing pattern information of a cultivation area based on the learned image;
Determining, by a reference path determination unit, a boundary between regions based on pattern information of the cultivated regions, and determining a reference path based on the boundary between the cultivated regions;
Determining, by an area determining unit, area information based on the boundary between the areas; And
Calculating, by an autonomous driving control unit, steering angle information based on the reference path and the region information, and controlling the autonomous driving agricultural machine to autonomously travel based on the steering angle information;
The operation method of the autonomous driving agricultural machine device comprising a.
제 9항에 있어서,
조향각 정보를 산출하는 단계는,
자율 주행 농기계가 조향각 정보에 기초하여 자율 주행 하는 단계;
상기 자율 주행 제어부가 상기 기준 경로의 기울기를 산출하는 단계; 및
상기 기준 경로의 기울기에 기초하여 상기 기준 경로를 조향각 정보로 선형 변환하여 추출하는 단계를 포함하는 자율 주행 농기계 장치의 동작 방법.
The method of claim 9,
The step of calculating the steering angle information,
Autonomously driving, by the autonomously driving agricultural machine, based on the steering angle information;
Calculating, by the autonomous driving controller, a slope of the reference path; And
And extracting and linearly converting the reference route into steering angle information based on a slope of the reference route.
자율 주행 농기계 장치; 및
경작 영역을 촬영하기 위한 카메라를 포함하고,
상기 자율 주행 농기계 장치는,
적어도 하나 이상의 카메라로 영상을 촬영하는 영상 탐지부;
딥러닝(Deep Learning) 알고리즘에 기초하여 상기 영상을 학습하고, 학습된 영상에 기초하여 경작 영역의 패턴 정보를 인식하는 패턴 학습부;
상기 경작 영역의 패턴 정보에 기초하여 영역간의 경계를 결정하고, 상기 경작 영역간의 경계에 기초하여 기준 경로를 결정하는 기준 경로 결정부;
상기 영역간의 경계에 기초하여 영역 정보를 결정하는 영역 결정부; 및
상기 기준 경로 및 상기 영역 정보에 기초하여 조향각 정보를 산출하고, 자율 주행 농기계가 상기 조향각 정보에 기초하여 자율 주행 하도록 제어하는 자율 주행 제어부;
를 포함하는 자율 주행 농기계 시스템.
Autonomous driving agricultural machinery devices; And
Including a camera for photographing the cultivated area,
The autonomous driving agricultural machinery device,
An image detector for capturing an image with at least one camera;
A pattern learning unit that learns the image based on a deep learning algorithm and recognizes pattern information of a cultivation area based on the learned image;
A reference path determining unit determining a boundary between regions based on the pattern information of the cultivated regions and determining a reference path based on the boundary between the cultivating regions;
A region determining unit that determines region information based on the boundary between the regions; And
An autonomous driving control unit that calculates steering angle information based on the reference path and the region information, and controls autonomously driving agricultural machines to autonomously travel based on the steering angle information;
Self-driving agricultural machine system comprising a.
컴퓨터에
영상 탐지부가 적어도 하나 이상의 카메라로 영상을 촬영하는 단계,
패턴 학습부가 딥러닝(Deep Learning) 알고리즘에 기초하여 상기 영상을 학습하고, 학습된 영상에 기초하여 경작 영역의 패턴 정보를 인식하는 단계,
기준 경로 결정부가 상기 경작 영역의 패턴 정보에 기초하여 영역간의 경계를 결정하고, 상기 경작 영역간의 경계에 기초하여 기준 경로를 결정하는 단계,
영역 결정부가 상기 영역간의 경계에 기초하여 영역 정보를 결정하는 단계 및
자율 주행 제어부가 상기 기준 경로 및 상기 영역 정보에 기초하여 조향각 정보를 산출하고, 자율 주행 농기계가 상기 조향각 정보에 기초하여 자율 주행 하도록 제어하는 단계를 실행시키기 위하여 매체에 저장된 컴퓨터프로그램.
On the computer
Capturing an image with at least one camera by an image detection unit,
A pattern learning unit learning the image based on a deep learning algorithm, and recognizing pattern information of a cultivation area based on the learned image,
Determining, by a reference path determination unit, a boundary between regions based on pattern information of the cultivated regions, and determining a reference path based on the boundary between the cultivated regions,
Determining, by an area determining unit, area information based on the boundary between the areas; and
A computer program stored in a medium to execute the step of an autonomous driving controller calculating steering angle information based on the reference route and the region information, and controlling the autonomous driving agricultural machine to autonomously travel based on the steering angle information.
KR1020190140396A 2019-11-05 2019-11-05 Automatic driving agricultural machine device supporting image-based path recognition and steering angle calculation techniques and operation method thereof KR102304098B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190140396A KR102304098B1 (en) 2019-11-05 2019-11-05 Automatic driving agricultural machine device supporting image-based path recognition and steering angle calculation techniques and operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190140396A KR102304098B1 (en) 2019-11-05 2019-11-05 Automatic driving agricultural machine device supporting image-based path recognition and steering angle calculation techniques and operation method thereof

Publications (2)

Publication Number Publication Date
KR20210054347A true KR20210054347A (en) 2021-05-13
KR102304098B1 KR102304098B1 (en) 2021-09-23

Family

ID=75913514

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190140396A KR102304098B1 (en) 2019-11-05 2019-11-05 Automatic driving agricultural machine device supporting image-based path recognition and steering angle calculation techniques and operation method thereof

Country Status (1)

Country Link
KR (1) KR102304098B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102543649B1 (en) * 2022-07-19 2023-07-06 주식회사 넷에이블 farming automation system using sunlight structure and agricultural machines

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240008423A (en) 2022-07-04 2024-01-19 주식회사 대동 A method of setting a rotavating path for an autonomous tractor
KR20240094136A (en) 2022-12-06 2024-06-25 전찬우 Digital Agricultural Machine Management System based on location information

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2944774B2 (en) * 1991-03-20 1999-09-06 ヤンマー農機株式会社 Image processing method for automatic traveling work machine
KR20090067484A (en) * 2007-12-21 2009-06-25 재단법인 포항산업과학연구원 System and method for extracting mobile path of mobile robot using ground configuration cognition algorithm
KR20180116319A (en) * 2016-05-10 2018-10-24 얀마 가부시키가이샤 Autonomous travel path generation system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2944774B2 (en) * 1991-03-20 1999-09-06 ヤンマー農機株式会社 Image processing method for automatic traveling work machine
KR20090067484A (en) * 2007-12-21 2009-06-25 재단법인 포항산업과학연구원 System and method for extracting mobile path of mobile robot using ground configuration cognition algorithm
KR20180116319A (en) * 2016-05-10 2018-10-24 얀마 가부시키가이샤 Autonomous travel path generation system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102543649B1 (en) * 2022-07-19 2023-07-06 주식회사 넷에이블 farming automation system using sunlight structure and agricultural machines
WO2024019462A1 (en) * 2022-07-19 2024-01-25 주식회사 넷에이블 Farming automation system using solar structures and agricultural machines

Also Published As

Publication number Publication date
KR102304098B1 (en) 2021-09-23

Similar Documents

Publication Publication Date Title
KR102304098B1 (en) Automatic driving agricultural machine device supporting image-based path recognition and steering angle calculation techniques and operation method thereof
CN109720340B (en) Automatic parking system and method based on visual identification
Bonadies et al. An overview of autonomous crop row navigation strategies for unmanned ground vehicles
Fang et al. A vision-based self-tuning fuzzy controller for fillet weld seam tracking
EP2766872B1 (en) Method of calibrating a computer-based vision system onboard a craft
CN110083157B (en) Obstacle avoidance method and device
KR20110011424A (en) Method for recognizing position and controlling movement of a mobile robot, and the mobile robot using the same
KR102248382B1 (en) Driving control method for adjustable agricultural robot
KR102340543B1 (en) Attached tpye-agricultural working path detecting appatatus
English et al. Learning crop models for vision-based guidance of agricultural robots
Ospina et al. Simultaneous mapping and crop row detection by fusing data from wide angle and telephoto images
KR102445673B1 (en) Autonomous agricultural machine device to increase the recognition rate of autonomous traveling path and operation method thereof
JP2020101943A (en) Field working vehicle
Elsheikh et al. Practical design of a path following for a non-holonomic mobile robot based on a decentralized fuzzy logic controller and multiple cameras
Cherubini et al. A position-based visual servoing scheme for following paths with nonholonomic mobile robots
Bakken et al. Robot-supervised learning of crop row segmentation
CN105550676A (en) Logistics delivery vehicle trace tracking method based on linearity CCD
JPH11149557A (en) Surrounding environment recognizing device for autonomous traveling vehicle
Peng et al. A combined visual navigation method for greenhouse spray robot
JP2020076714A (en) Position attitude estimation device
Yamashita et al. Autonomous Traveling Control of Agricultural Mobile Robot Using Depth Camera in Greenhouse
CN109285202A (en) Vehicle track method and system for planning
Ma et al. Selection of observation position and orientation in visual servoing with eye-in-vehicle configuration for manipulator
WO2023135621A1 (en) Surveillance camera image analysis system
JP2583584B2 (en) Automatic steering control device for agricultural work machine

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant