KR20200108949A - Autonomous tractor having crop hight sensing algorithm - Google Patents

Autonomous tractor having crop hight sensing algorithm Download PDF

Info

Publication number
KR20200108949A
KR20200108949A KR1020190027511A KR20190027511A KR20200108949A KR 20200108949 A KR20200108949 A KR 20200108949A KR 1020190027511 A KR1020190027511 A KR 1020190027511A KR 20190027511 A KR20190027511 A KR 20190027511A KR 20200108949 A KR20200108949 A KR 20200108949A
Authority
KR
South Korea
Prior art keywords
tractor
height
autonomous driving
image
camera
Prior art date
Application number
KR1020190027511A
Other languages
Korean (ko)
Other versions
KR102238263B1 (en
KR102238263B9 (en
Inventor
김택진
김완수
백승민
백승윤
정연준
Abu Ayub Siddique Md
문석표
이남규
김용주
이대현
Original Assignee
충남대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충남대학교산학협력단 filed Critical 충남대학교산학협력단
Priority to KR1020190027511A priority Critical patent/KR102238263B1/en
Publication of KR20200108949A publication Critical patent/KR20200108949A/en
Application granted granted Critical
Publication of KR102238263B1 publication Critical patent/KR102238263B1/en
Publication of KR102238263B9 publication Critical patent/KR102238263B9/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B69/00Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
    • A01B69/001Steering by means of optical assistance, e.g. television cameras
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B69/00Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
    • A01B69/007Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow
    • A01B69/008Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow automatic

Abstract

The present invention relates to an agricultural tractor, and more particularly, to an autonomous tractor using a height sensing algorithm for autonomous driving. The agricultural tractor according to the present invention comprises: a stereo camera installed in front of a tractor; and an autonomous driving control unit for autonomous driving of the tractor. The stereo camera is configured to photograph a front object during autonomous driving of the tractor in a stereo manner. The autonomous driving control unit is configured to calculate the height of the front object on the basis of at least two stereo images input from the stereo camera, and determine whether the autonomous driving of the tractor is to be continuously performed or to be stopped based on the calculated height of the front object.

Description

높이 센싱 알고리즘을 구비한 자율주행 트랙터{AUTONOMOUS TRACTOR HAVING CROP HIGHT SENSING ALGORITHM}Autonomous tractor with height sensing algorithm {AUTONOMOUS TRACTOR HAVING CROP HIGHT SENSING ALGORITHM}

본 발명은 농작업용 트랙터에 관한 것으로, 자율주행을 위한 높이 센싱 알고리즘을 이용한 자율주행 트랙터에 관한 것이다.The present invention relates to a tractor for agricultural work, and to an autonomous driving tractor using a height sensing algorithm for autonomous driving.

트랙터는 갈수록 줄어드는 농업인구와 농업인의 노령화 문제로 농업인구가 줄어드는 현시대에서, 1인당 농사작업 효율을 증대시키기 위해서 없어서는 안 될 필수장비이다.Tractors are indispensable equipment in order to increase the efficiency of farming work per capita in the present age when the agricultural population is decreasing due to the decreasing agricultural population and the aging problem of farmers.

트랙터는 견인력을 이용해서 농업 분야에서 각종 작업을 하는 작업용 자동차로써, 현재 농업용 트랙터는 전방에 전방 로더를 설치하여 그 로더에 각종 작업용 어태치먼트를 장착하여 운반, 내리기, 싣기 등의 각종 작업을 수행하고, 후방부에는 후방 링크를 통해 로터베이터 등을 장착하여 경운 등의 작업을 수행하는 것이 일반적이다.Tractor is a work vehicle that uses traction power to perform various tasks in the agricultural field. Currently, agricultural tractors install a front loader in the front and attach various work attachments to the loader to perform various tasks such as transportation, unloading, and loading. It is common to perform work such as cultivation by mounting a rotor vator or the like through a rear link at the rear part.

농작업용 트랙터는 드넓은 농지에서 작동하는 장비로써, 농민들에게 필수적인 장비이지만, 단순하고 느리게 이동하면서 반복적인 작업을 수행하는 단점이 있다. 또한, 일손이 부족하며, 일거리가 농사철에 몰리는 특성이 있는 농업분야에서 단순하고 느린 작업을 수행하기 위해 농민들이 트랙터 위에서 많은 시간과 에너지를 소모하고 있으며, 이 때문에 1인당 농사작업 효율성이 떨어지고, 생산량 또한 떨어지는 문제점이 있다A tractor for agricultural work is an equipment that operates on a wide farmland, and is an essential equipment for farmers, but has the disadvantage of performing repetitive work while moving slowly and simply. In addition, farmers are spending a lot of time and energy on a tractor to perform simple and slow work in the agricultural field, where labor is insufficient and work is concentrated in the farming season, which reduces the efficiency of farming work per person and yields There is also a falling problem

이런 문제점을 해결하기 위해 트랙터가 자율적으로 이동하도록 하여 트랙터의 작업효율을 향상시키는 자율주행 트랙터가 알려져 있다. 이와 같은 자율주행 트랙터의 경우 다양한 밭작물 등에 이용되고 있다.In order to solve this problem, an autonomous tractor is known that improves the working efficiency of the tractor by allowing the tractor to move autonomously. In the case of such an autonomous tractor, it is used for various field crops.

이와 관련해서 대한민국공개특허 10-2013-0138463호에는 농업용 트랙터의 자율주행 시스템에 대해 시사하고 있으며, 본 발명에 따른 농업용 트랙터의 자율주행 제어 시스템은, 트랙터의 기어를 변환하기 위한 변속 액추에이터;트랙터의 속력을 조절하기 위한 가속 액추에이터;트랙터의 속력을 측정하기 위한휠엔코더;주행모드 상태를 표시하는 표시창과 자율주행 또는 수동주행 모드선택을 위한 스위치와 비상정지 버튼을 포함하는 컨트롤패널;트랙터의 자율주행 운전 정보가 미리 저장되는 데이터저장부;상기 컨트롤 패널에서 자율주행 모드가 선택되었을 경우에 상기 데이터저장부에 저장된 자율주행 운전정보와 상기 휠엔코더에서 측정되어 전송되어 오는 속력값을 비교하여 상기 변속 액추에이터와 상기 가속 액추에이터를 상기 데이터저장부에 저장된 자율주행 운전정보와 상응하도록 제어하는 제어부;를 포함하여 자율주행 트랙터의 속도를 제어하는 기술에 대해 시사하고 있다.In this regard, Korean Patent Publication No. 10-2013-0138463 suggests an autonomous driving system of an agricultural tractor, and the autonomous driving control system of an agricultural tractor according to the present invention includes: a shift actuator for converting a gear of the tractor; An acceleration actuator for adjusting the speed; a wheel encoder for measuring the speed of the tractor; a control panel including a display window indicating the driving mode status, a switch for selecting an autonomous or manual driving mode, and an emergency stop button; autonomous driving of the tractor A data storage unit in which driving information is stored in advance; When the autonomous driving mode is selected in the control panel, the shift actuator by comparing the autonomous driving driving information stored in the data storage unit with a speed value measured and transmitted by the wheel encoder And a control unit that controls the acceleration actuator to correspond to the autonomous driving driving information stored in the data storage unit; and a technology for controlling the speed of the autonomous driving tractor is suggested.

그러나 실제 트랙터의 자율주행에 있어서 트랙터가 특정높이 이상의 작물들을 만나게 되는 경우 이를 회피하거나 정지하지 않고 계속 트랙터가 계속 자율주행을 진행하는 경우 트랙터가 이동하면서 작물을 훼손하는 문제가 발생된다. 이와 관련하여 상기 특허문헌에서는 트랙터의 자율주행 속도만을 제어하는 기술에 대해 시사하고 있을 뿐이며, 자율주행 트랙터가 자율주행 도중 만나게 되는 장애물 특히, 특정 높이의 밭작물을 만나는 경우 이를 회피하거나 정지하는 기술에 대해서는 시사하고 있지 않아 자율주행의 효율성이 떨어지게 된다.However, when the tractor encounters crops of a certain height or higher in the actual autonomous driving of the tractor, if the tractor continues to run autonomously without avoiding or stopping it, the tractor moves and damages the crops. In this regard, the patent document only suggests a technology for controlling only the autonomous driving speed of a tractor, and for a technology that avoids or stops an obstacle encountered by an autonomous tractor during autonomous driving, especially when it encounters a field crop of a specific height. As it is not suggesting, the efficiency of autonomous driving will decrease.

본 발명은 전술한 문제점에 기반하여 안출된 발명으로서 트랙터가 자율주행시 특정 높이의 작물을 만나게 되는 경우 이를 회피하거나 정지하기 위한 자율주행용의 높이센싱용 알고리즘을 구비한 자율주행 트랙터를 제공하는 것을 목적으로 한다.The present invention is an invention conceived based on the above-described problems, and an object of the present invention is to provide an autonomous tractor with an algorithm for height sensing for autonomous driving to avoid or stop when a tractor encounters a crop of a specific height during autonomous driving. To do.

전술한 과제를 해결하기 위해, 본 발명의 일양태에 따르면 높이센싱 알고리즘을 구비한 자율주행 트랙터가 제공되는데, 트랙터는 트랙터의 전방에 설치되는 스테레오 카메라 및 상기 트랙터의 자율주행을 위한 자율주행용 제어부를 구비하고, 스테레오 카메라는 트랙터의 자율주행시 전방의 물체를 스테레오방식으로 촬영하도록 구성되고, 자율주행용 제어부는 상기 스테레오 카메라로부터 입력되는 적어도 2개의 스테레오 영상에 기반하여 전방 물체의 높이를 계산하도록 구성되고, 상기 계산된 전방 물체의 높이에 기반하여 트랙터의 자율주행을 계속 진행할 것인지 트랙터의 자율주행을 정지할 것인지를 판단하도록 구성된다.In order to solve the above-described problem, according to an aspect of the present invention, an autonomous driving tractor having a height sensing algorithm is provided, wherein the tractor includes a stereo camera installed in front of the tractor and a control unit for autonomous driving for autonomous driving of the tractor. And, the stereo camera is configured to photograph an object in front of the tractor in a stereo manner when autonomously driving, and the control unit for autonomous driving is configured to calculate the height of the front object based on at least two stereo images input from the stereo camera. And, based on the calculated height of the front object, it is configured to determine whether to continue the autonomous driving of the tractor or to stop the autonomous driving of the tractor.

또한 전술한 양태에서, 자율주행용 제어부는, 자율주행 제어부는 복수의 스테레오 카메라로부터의 영상을 취득하는 영상 수신부, 및 수신된 영상으로부터 거리 및 높이를 판단하는데 이용되는 대응맵(disparity map)을 생성하기 위한 대응맵 생성부를 더 포함하여 구성된다. In addition, in the above-described aspect, the autonomous driving control unit generates an image receiving unit that acquires images from a plurality of stereo cameras, and a disparity map used to determine the distance and height from the received images. It is configured to further include a corresponding map generating unit for.

또한 전술한 양태에서 자율주행용 제어부는 대응 맵으로부터 목표 장애물 또는 목표 작물까지의 거리를 계산하기 위한 거리계산부 및 적어도 거리계산부로부터 계산된 거리결과 이용하여 장애물 또는 작물의 높이를 계산하기 위한 높이 계산부를 더 포함하여 구성된다. In addition, in the above-described aspect, the control unit for autonomous driving is a distance calculator for calculating the distance to the target obstacle or target crop from the corresponding map, and at least the height for calculating the height of the obstacle or crop by using the distance result calculated from the distance calculator. It is configured to further include a calculation unit.

또한 전술한 양태에서, 스테레오 카메라는 2개의 카메라로 이루어지고, 상기 2개의 카메라는 트랙터의 동일한 높이 부분에 서로 60mm ~ 70mm 범위 내에서 이격되어 설치된다. In addition, in the above-described aspect, the stereo camera consists of two cameras, and the two cameras are installed to be spaced apart from each other within a range of 60mm to 70mm at the same height of the tractor.

또한 전술한 양태에서, 스테레오 카메라는 제1 카메라 및 제2 카메라로 이루어지고, 제1 카메라 및 제2 카메라는 CCD(charge coupled device) 영상센서(image sensor), MOS(metal oxide semi-conductor) 영상 센서, CPD(charge priming device) 영상센서 및 CID(charge injection device) 영상센서 등과 같은 센서들 중 어느 하나의 센서를 이용하여 구현될 수 있다. In addition, in the above-described aspect, the stereo camera includes a first camera and a second camera, and the first camera and the second camera are a charge coupled device (CCD) image sensor and a metal oxide semi-conductor (MOS) image. It may be implemented using any one of sensors such as a sensor, a charge priming device (CPD) image sensor, and a charge injection device (CID) image sensor.

또한 전술한 양태에서 대응맵 생성부는 제1 및 제2 영상을 통해 매칭을 수행하고, 상기 매칭 방법은 상기 스테레오 영상으로 입력된 제1 영상 또는 제2 영상 중에서 하나의 영상을 기준 영상으로 설정하고, 상기 선택된 기준 영상의 기준 픽셀 주위로 일정 영역의 블록을 설정하여, 선택되지 않은 나머지 영상에서 기준 영상의 상기 일정 영역의 블록과 대응되는 가장 유사한 영역을 찾아 변이를 추정하여 대응맵을 생성한다. In addition, in the above-described aspect, the correspondence map generator performs matching through the first and second images, and the matching method sets one image among the first image or the second image input as the stereo image as a reference image, A block of a certain area is set around a reference pixel of the selected reference image, and the most similar area corresponding to the block of the certain area of the reference image is found in the remaining unselected images, and a corresponding map is generated by estimating a transition.

또한 전술한 양태에서 거리계산부는 대응맵을 이용하여 카메라로부터 목표 작물까지의 거리 검출을 수행한 후 에지 검출을 수행하고, 에지 검출을 수행하여 서로 연결된 구성요소들을 각각 구분하도록 구성된다. In addition, in the above-described aspect, the distance calculator is configured to detect the distance from the camera to the target crop using the corresponding map, then perform edge detection, and perform edge detection to distinguish each of the connected components.

또한 전술한 양태에서 높이계산부는 연결된 구성요소들 중 목표 작물의 높이를 측정하기 위해 목표작물만을 분리해내는 분할화 처리를 더 수행하도록 구성된 다.In addition, in the above-described aspect, the height calculation unit is further configured to perform a segmentation process of separating only the target crop in order to measure the height of the target crop among the connected components.

본 발명에 따르면 트랙터가 자율주행시 특정 높이의 작물을 만나게 되는 경우 작물의 높이를 계산하고 작물의 높이가 주행가능한 높이인 경우 자율주행을 계속 진행하는 반면 작물의 높이가 주행불가능한 높이인 것으로 판단된 경우 주행을 정하도록 구성되어 작물이 트랙터에 의해 손상 또는 홰손되는 것을 방지할 수 있게 되고, 또한 밭작업 기계화율을 증대시켜 밭농가에서 자율주행 트랙터 주행이 가능해질 뿐만 아니라, 장애물 인식을 통한 안전 확보에도 기여할 수 있다는 효과가 얻어질 수 있다.According to the present invention, when a tractor encounters a crop of a specific height during autonomous driving, the height of the crop is calculated, and when the height of the crop is the height that can be driven, the autonomous driving continues while it is determined that the height of the crop is a height that cannot be driven. It is configured to determine the driving so that crops can be prevented from being damaged or damaged by the tractor.In addition, by increasing the mechanization rate of field work, it is possible to drive an autonomous tractor in a field farm, and to secure safety through recognition of obstacles. The effect of being able to contribute can be obtained.

도 1은 본 발명에 따른 자율주행가능한 트랙터의 주요 구성을 설명하기 위한 설명도.
도 2는 본 발명에 따른 자율주행 트랙터의 자율주행 제어부의 내부구성을 나타내는 블록도.
도 3은 본 발명에 따른 자율주행 트랙터의 자율주행 제어부에서의 이미지 처리 과정을 예시적으로 나타내는 도면.
도 4는 본 발명에 따른 자율주행 트랙터의 자율주행 제어부에서의 대상 작물의 높이 계산 과정을 설명하기 위한 설명도.
도 5은 본 발명에 따른 자율주행 트랙터의 자율주행 동작 흐름을 나타내는 순서도.
도 6는 본 발명에 따른 자율주행 트랙터의 자율주행에 이용되는 작물높이센싱 알고리즘의 주요 동작을 나타내는 순서도.
1 is an explanatory diagram for explaining the main configuration of a tractor capable of autonomous driving according to the present invention.
Figure 2 is a block diagram showing the internal configuration of the autonomous driving control unit of the autonomous tractor according to the present invention.
3 is a diagram illustrating an exemplary image processing process in the autonomous driving control unit of the autonomous driving tractor according to the present invention.
Figure 4 is an explanatory diagram for explaining a process of calculating the height of the target crop in the autonomous driving control unit of the autonomous tractor according to the present invention.
5 is a flow chart showing an autonomous driving operation flow of the autonomous driving tractor according to the present invention.
6 is a flow chart showing the main operation of the crop height sensing algorithm used for autonomous driving of the autonomous tractor according to the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되는 실시예를 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이다. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to embodiments to be described later in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms.

본 명세서에서 본 실시예는 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 그리고 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 따라서, 몇몇 실시예들에서, 잘 알려진 구성 요소, 잘 알려진 동작 및 잘 알려진 기술들은 본 발명이 모호하게 해석되는 것을 피하기 위하여 구체적으로 설명되지 않는다. In the present specification, the present embodiment is provided to complete the disclosure of the present invention, and to completely inform the scope of the invention to those of ordinary skill in the art to which the present invention belongs. And the invention is only defined by the scope of the claims. Accordingly, in some embodiments, well-known components, well-known operations, and well-known techniques have not been described in detail in order to avoid obscuring interpretation of the present invention.

명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. 그리고, 본 명세서에서 사용된(언급된) 용어들은 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 또한, '포함(또는, 구비)한다'로 언급된 구성 요소 및 동작은 하나 이상의 다른 구성요소 및 동작의 존재 또는 추가를 배제하지 않는다. The same reference numerals refer to the same components throughout the specification. In addition, the terms used in the present specification (referred to) are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. In addition, elements and operations referred to as'comprising (or having)' do not exclude the presence or addition of one or more other elements and operations.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 정의되어 있지 않은 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless defined.

이하, 첨부된 도면들을 참조하여 본 발명의 기술적 특징을 구체적으로 설명한다.Hereinafter, the technical features of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 자율주행용 높이 센싱 알고리즘을 채용한 트랙터(10)의 일례를 개략적으로 도시한 도면이다. 도 1에 도시한 바와 같이 높이 센싱 알고리즘을 채용한 트랙터(이하 자율주행 트랙터라고 함)(10)는 자율주행 트랙터(10)의 전방에 장착되는 복수의 카메라(바람직하게는 2개의 스테레오 카메라)(200)와 자율주행 제어부(100)를 포함하여 구성된다. 자율주행 트랙터(10)는 2개의 카메라(200)로부터 자율주행 트랙터가 주행하는 전방의 영상을 촬영하고, 자율주행 제어부(100)는 카메라(200)로부터 입력되는 영상에 기반하여 전방에 위치되는 장애물(또는 작물)의 높이를 판단하며, 판단결과에 따라 엔진을 제어하는 엔진 제어부(300)로 주행 명령을 송출하도록 구성된다.1 is a diagram schematically showing an example of a tractor 10 employing a height sensing algorithm for autonomous driving according to the present invention. As shown in Figure 1, a tractor employing a height sensing algorithm (hereinafter referred to as an autonomous driving tractor) 10 includes a plurality of cameras (preferably two stereo cameras) mounted in front of the autonomous driving tractor 10 ( 200) and the autonomous driving control unit 100. The self-driving tractor 10 captures an image of the front of the self-driving tractor running from the two cameras 200, and the autonomous driving control unit 100 is an obstacle positioned in front based on the image input from the camera 200. It is configured to determine the height of (or crop) and transmit a driving command to the engine controller 300 that controls the engine according to the determination result.

도 2는 본 발명에 따른 자율주행 트랙터(10)의 자율주행 제어부(100)의 구성을 보다 세부적으로 나타낸 블록도이고, 도 3은 자율주행 제어부(100)에 의해 수행되는 이미지 처리를 개략적으로 도시한 도면이다. 도 2 및 도 3에 도시한 바와 같이 자율주행 제어부(100)는 전방의 복수의 카메라(200)(C1,C2)로부터 영상을 수신하고 이에 기반하여 엔진 제어부(300)의 동작을 제어하도록 구성된다.2 is a block diagram showing in more detail the configuration of the autonomous driving control unit 100 of the autonomous driving tractor 10 according to the present invention, and FIG. 3 schematically shows the image processing performed by the autonomous driving control unit 100 It is a drawing. 2 and 3, the autonomous driving control unit 100 is configured to receive an image from a plurality of front cameras 200 (C1, C2) and control the operation of the engine control unit 300 based thereon. .

보다 구체적으로 자율주행 제어부(100)는 설정된 프로그램에 의해 동작하는 하나 이상의 마이크로 프로세서로 구현될 수 있으며, 이러한 설정된 프로그램은 후술하는 본 발명의 일 실시예에 따른 스테레오 카메라를 이용한 높이센싱 알고리즘에 포함된 각 단계를 수행하기 위한 일련의 명령을 포함하는 것으로 이해될 수 있다.More specifically, the autonomous driving control unit 100 may be implemented with one or more microprocessors operated by a set program, and this set program is included in a height sensing algorithm using a stereo camera according to an embodiment of the present invention to be described later. It can be understood that it contains a series of instructions for performing each step.

자율주행 제어부(100)는 복수의 스테레오 카메라로부터의 영상을 취득하는 영상 수신부(110), 수신된 영상으로부터 거리 및 높이를 판단하는데 이용되는 맵(map)을 생성하기 위한 대응맵 생성부(120), 대응맵(120)을 이용하여 카메라로부터 목표 장애물 또는 목표 작물까지의 거리를 계산하기 위한 거리계산부(130) 및 거리계산부(130)부로부터 계산된 거리결과 등을 이용하여 장애물 또는 작물의 높이를 계산하기 위한 높이 계산부(140)를 포함한다.The autonomous driving control unit 100 includes an image receiving unit 110 for acquiring images from a plurality of stereo cameras, and a corresponding map generating unit 120 for generating a map used to determine a distance and height from the received images. , Using the distance calculation unit 130 for calculating the distance to the target obstacle or target crop from the camera using the response map 120 and the distance calculation unit 130 It includes a height calculation unit 140 for calculating the height.

스테레오 카메라(200)는 트랙터 전방의 상부에 돌출 형성되고 트랙터가 이동하는 전방 경로의 작물을 실시간으로 촬영한다. 스테레오 카메라(200)는 제1 카메라(C1) 및 제2 카메라(C2)를 통해 차량의 전방을 촬영한다. 또한 제1 카메라(C1) 및 제2 카메라(C2)는 동일 높이에서 사람의 눈과 비슷한 60mm~70mm의 간격을 갖고 설치되어 촬영을 수행하도록 구성된다. 제1카메라(C1) 및 제2카메라(C2)를 통해 각각 제1 영상 및 제 2 영상이 획득한다. 제1 카메라(C1) 및 제2카메라(C2)는 CCD(charge coupled device) 영상센서(image sensor), MOS(metal oxide semi-conductor) 영상 센서, CPD(charge priming device) 영상센서 및 CID(charge injection device) 영상센서 등과 같은 센서들 중 어느 하나의 센서를 이용하여 구현될 수 있다.The stereo camera 200 protrudes from an upper portion of the front of the tractor and photographs crops in the front path of the tractor in real time. The stereo camera 200 photographs the front of the vehicle through the first camera C1 and the second camera C2. Also, the first camera C1 and the second camera C2 are installed at the same height and have a spacing of 60 mm to 70 mm similar to that of a human eye, and are configured to perform photographing. A first image and a second image are acquired through the first camera C1 and the second camera C2, respectively. The first camera C1 and the second camera C2 include a charge coupled device (CCD) image sensor, a metal oxide semi-conductor (MOS) image sensor, a charge priming device (CPD) image sensor, and a charge coupled device (CID). injection device) may be implemented using any one of sensors such as an image sensor.

스테레오 카메라(200)에서 작물을 실시간으로 촬영하기 때문에 운전자가 트랙터 경로에 작물이 존재하는지 확인하지 않아도 작물을 파악할 수 있다. 또한, 스테레오 카메라(200)에서 촬영된 영상은 영상 수신부(110)로 전송하게 된다.Since the stereo camera 200 captures the crop in real time, the driver can grasp the crop without checking whether the crop exists in the tractor path. In addition, the image captured by the stereo camera 200 is transmitted to the image receiving unit 110.

영상 수신부(110)는 스테레오 카메라(200)로부터 쵤영된 제1 영상 및 제2 영상을 수신하고 이를 저장한다. The image receiving unit 110 receives the first image and the second image captured from the stereo camera 200 and stores the same.

대응맵(disparity map) 생성부(120)는 제1 및 제2 영상을 통해 매칭을 수행한다. 매칭 방법은 상기 스테레오 영상으로 입력된 제1 영상 또는 제2 영상 중에서 하나의 영상을 기준 영상으로 설정하고, 상기 선택된 기준 영상의 기준 픽셀 주위로 일정 영역의 블록을 설정하여, 선택되지 않은 나머지 영상에서 기준 영상의 상기 일정 영역의 블록과 대응되는 가장 유사한 영역을 찾아 변이를 추정하고 대응맵(디스패리티 맵이라고도 함)을 구하는 스테레오 매칭 방법이다. The disparity map generator 120 performs matching through the first and second images. The matching method is to set one image among the first image or the second image input as the stereo image as a reference image, and set a block of a certain area around the reference pixel of the selected reference image, This is a stereo matching method for estimating the disparity by finding the most similar area corresponding to the block of the predetermined area of the reference image, and obtaining a correspondence map (also referred to as a disparity map).

디스패리티는 좌우 스테레오 카메라의 영상의 지점 P의 투영된 픽셀좌표 pl(xl,yl), pr(xr,yr) 사이의 x축 거리차이이고, 스테레오 영상의 촬영 높이는 동일하므로 yl=yr 이 된다. 따라서 Pl의 디스패리티 값은 다음과 같이 된다.The disparity is the x-axis distance difference between the projected pixel coordinates p l (x l ,y l ) and p r (x r ,y r ) of the point P of the image of the left and right stereo camera, and the shooting height of the stereo image is the same. y l = y r Therefore, the disparity value of Pl becomes as follows.

Figure pat00001
Figure pat00001

여기서 xl은 Pl의 x좌표(Ol좌표계 기준)이고, xr은 Pr의 x좌표(Or좌표계 기준)이다.Here, xl is the x coordinate of P l (based on the O l coordinate system), and xr is the x coordinate of P r (based on the O r coordinate system).

pl(xl,yl)에 매칭되는 pr(xr,yr)의 검출은 pr이 포함된 영상에서 y=yl 라인 픽셀 중 가장 pl과 유사한 픽셀을 선정하여 수행된다. 유사함의 판단 기준은 좌/우 영상의 일정영역의 블록 사이의 상관성을 구한 후 차이의 제곱을 합하는 SSD(Sum of Squared difference), 픽셀간의 상관관계를 이용하는 NC(Normalized Crosscoefficient)등을 포함할 수 있다.The detection of p r (x r ,y r ) matching p l (x l ,y l ) is performed by selecting a pixel that is most similar to pl among y=yl line pixels in the image containing pr. The criteria for determining the similarity may include a sum of squared difference (SSD) that sums the squares of the difference after obtaining the correlation between blocks of a certain area of the left/right image, and a normalized crosscoefficient (NC) using the correlation between pixels. .

Figure pat00002
Figure pat00002

다음으로 거리계산부(130)에 대해 설명한다. 거리 계산부는 전술한 바와 같이 대응맵 생성부(120)에서 생성된 대응맵을 이용하여 스테레오 카메라와 장애물 또는 작물 까지의 거리를 계산하도록 구성된다. Next, the distance calculation unit 130 will be described. As described above, the distance calculation unit is configured to calculate the distance between the stereo camera and the obstacle or crop by using the corresponding map generated by the correspondence map generation unit 120.

거리계산부(130)는 정확한 거리 검출을 위해 전술한 대응맵으로부터 노이즈를 제거하는 단계를 더 포함할 수 있다. 거리 계산부(130)는 스테레오 카메라로부터 작물까지의 거리를 계산한 후, 에지 검출 단계를 수행한다.The distance calculator 130 may further include removing noise from the above-described correspondence map for accurate distance detection. The distance calculator 130 calculates the distance from the stereo camera to the crop and then performs an edge detection step.

영상에서의 에지(edge)란 영상의 밝기가 낮은 값에서 높은 값으로, 또는 이와 반대로 변하는 지점에 존재하는 부분을 가리킨다. 에지는 영상안에 있는 객체의 경계(boundary)를 가리키는 것으로서, 모양(shape), 방향성(direction)을 탐지할 수 있는 등 여러 정보가 담겨있다. An edge in an image refers to a portion present at a point where the brightness of an image changes from a low value to a high value or vice versa. The edge indicates the boundary of an object in the image, and contains various information such as the ability to detect shape and direction.

에지 검출 단계는 영상 안에서 영역의 경계를 나타낸 영상처리 과정으로 본 발명의 실시예에서는 영상 밝기의 불연속점으로 윤곽선에 해당하는 픽셀을 구한다. 에지는 통상적으로 영상의 명암도를 기준으로 명암의 변화가 큰 지점이다. 따라서 이러한 명암, 밝기 변화율 즉 기울기를 검출해야한다. The edge detection step is an image processing process showing the boundary of a region in an image. In an embodiment of the present invention, a pixel corresponding to an outline is obtained as a discontinuous point of image brightness. The edge is usually a point where the change in contrast is large based on the contrast of the image. Therefore, it is necessary to detect the rate of change in contrast, brightness, or slope.

본 발명에서 에지 검출 방법으로, 이에 한정되는 것은 아니지만 소벨, 프리윗, 로버츠 마스크를 이용하는 1차 미분 알고리즘의 에지 검출이 이용될 수도 있고, 라플라시안, 로그(LOG(Laplacian of Gaussian)), DoG(Difference of Gaussian)와 같은 2차 미분 알고리즘 또는 캐니 에지 검출 중 어느 하나가 이용될 수도 있다.As the edge detection method in the present invention, although not limited thereto, edge detection of a first-order differential algorithm using a Sobel, Prewitt, and Roberts mask may be used, and Laplacian, Log (Laplacian of Gaussian), DoG (Difference of Gaussian), or Canny Edge detection, may be used.

다음으로 거리계산부(130)은 에지를 검출한 이후 에지를 연결하고, 연결된 구성요소들을 서로 구분한다. 연결된 구성요소들을 구분하는 것은 영상내 서로 겹쳐져 있는 구성요소를 구분하는 것, 즉 배경으로부터 대상작물을 추출해내기 위한 전처리 단계를 의미한다.Next, the distance calculator 130 connects the edges after detecting the edges, and distinguishes the connected components from each other. Separating the connected components refers to a pre-processing step for extracting the target crop from the background, that is, to classify the overlapping components in the image.

이를 위해 본 발명에서는 대응맵에서 작물중심좌표 높이를 기준으로 일정높이 범위 필터링이 수행되고 결과적으로 대상 작물의 후보 영역이 검출된다.To this end, in the present invention, a certain height range filtering is performed based on the height of the crop center coordinate in the correspondence map, and as a result, a candidate region of the target crop is detected.

Figure pat00003
Figure pat00003

결과적으로 본 발명에서는 에지 검출을 통해 대상 작물을 포함한 여러 경계면을 검출하고, 검출된 영역 내부에서 커넥티드 컴포넌트(connected component) 방법을 이용하여 작물영역에 포함되는 픽셀들을 서로 연결하여 배경과 작물을 서로 구분해 낼 수 있게 된다.As a result, in the present invention, various boundary surfaces including the target crop are detected through edge detection, and pixels included in the crop area are connected to each other by using a connected component method within the detected area. You will be able to tell them apart.

다음으로 높이 계산부(140)에 대해 설명한다. 거리계산부(130)에서 에지 검출된 영상으로부터 서로 연결된 구성요소(connected component)들을 구분한 뒤, 목표 작물의 높이를 측정하기 위해 목표 작물 분할화(target object segmentation)을 진행 한다. 목표 작물 분할화는 높이 계산부(140)에서 작물 높이의 추정을 위해 필요한 부분만 인식하기 위하여 전체 사진 중 해당하는 작물만을 추출하는 과정을 의미한다.Next, the height calculation unit 140 will be described. After the distance calculator 130 classifies connected components from the image detected by the edge, target object segmentation is performed to measure the height of the target crop. The target crop segmentation refers to a process of extracting only a corresponding crop from the entire picture in order for the height calculation unit 140 to recognize only a portion necessary for estimating the height of the crop.

이러한 일련의 과정으로 높이를 측정하려는 피사체가 전체 사진으로부터 분할되면 카메라와 초점과의 거리, 카메라와 이전에 계산하였던 피사체와의 거리 등을 이용한 관계식으로 작물의 높이를 계산한다.When the subject for which the height is to be measured is divided from the entire photograph through a series of processes, the height of the crop is calculated using a relational expression using the distance between the camera and the focus and the distance between the camera and the previously calculated subject.

분할된 목표 작물의 높이의 계산과 관련하여 도 4를 참조하여 이하에 설명하도록 한다.The calculation of the height of the divided target crop will be described below with reference to FIG. 4.

이미지 센서에 맺힌 상의 실제 크기를 알기 위해서는 촬영된 픽셀의 실제 촬영 거리(Z)를 알아야만 한다. 거리 Z는 두개의 스테레오 영상에 촬영된 P점의 위치 차이를 통해 계산될 수 있으며 다음과 같다.In order to know the actual size of the image formed on the image sensor, it is necessary to know the actual shooting distance (Z) of the captured pixel. The distance Z can be calculated through the difference in the position of the point P photographed on two stereo images, and is as follows.

Figure pat00004
Figure pat00004

여기서, f는 초점거리, T는 카메라간 거리, xl는 pl의 x좌표(Ql 좌표계 기준), xr은 pr의 x좌표(Qr 좌표계 기준), xl-xr은 디스패리티(좌우 영상에 맺힌 픽셀 거리)를 나타낸다.Where f is the focal length, T is the distance between cameras, x l is the x coordinate of p l (based on the Q l coordinate system), x r is the x coordinate of p r (based on the Q r coordinate system), and x l -x r Represents parity (pixel distance formed on left and right images).

P(X,Y,Z)의 Z좌표 계산 → X 좌표 계산 가능 (아래는 기준 좌표계가 왼쪽카메라인 경우)Calculate Z coordinate of P(X,Y,Z) → X coordinate calculation possible (see below when the reference coordinate system is the left camera)

Figure pat00005
Figure pat00005

따라서 영상내 목표 작물의 높이는 목표 작물의 최고점 픽셀을 이용하여 높이가 계산 가능하게 되며 다음과 같이 계산될 수 있다.Therefore, the height of the target crop in the image can be calculated using the highest pixel of the target crop, and can be calculated as follows.

작물의 높이 = Y + 카메라 높이 = (Z·(y))/f + 카메라 높이Crop height = Y + camera height = (Z·(y))/f + camera height

여기서 Y는 카메라가 설치되어 있는 높이, y는 카메라 기준 좌표계의 높이(카메라로 촬영된 영상의 픽셀 높이)를 의미한다.Here, Y denotes the height at which the camera is installed, and y denotes the height of the camera reference coordinate system (pixel height of the image captured by the camera).

다음으로 도 5을 참조하여 본 발명에 따른 작물 높이 센싱 알고리즘을 구비한 자율주행 트랙터의 동작에 대해 설명한다.Next, with reference to FIG. 5, the operation of the autonomous driving tractor equipped with the crop height sensing algorithm according to the present invention will be described.

도 5는 본 발명에 따른 작물 높이 센싱 알고리즘을 구비한 자율주행 트랙터의 동작 흐름을 나타낸 흐름도이다. 도 3에 나타낸 바와 같이 먼저 단계 S100에서 사용자에 의해 자율주행 트랙터(10)의 작업모드가 설정된다. 단계 S100에서는 수동 주행모드 또는 자율주행모드가 사용자에 의해 선택될 수 있다.5 is a flowchart illustrating an operation flow of an autonomous tractor with a crop height sensing algorithm according to the present invention. As shown in Fig. 3, first, in step S100, the work mode of the self-driving tractor 10 is set by the user. In step S100, a manual driving mode or an autonomous driving mode may be selected by the user.

단계 S110에서 자율주행모드가 선택된 경우 자율주행 제어부(100)는 단계 S120으로 진행하여 주행전방의 작물 영상을 촬영하고, 단계 S110에서 자율주행 모드가 아닌 수동주행 모드가 선택된 경우에는 단계 S180으로 진행하여 모든 자율주행 프로세스를 종료한다.When the autonomous driving mode is selected in step S110, the autonomous driving control unit 100 proceeds to step S120 to capture an image of crops in front of the driving, and if a manual driving mode other than the autonomous driving mode is selected in step S110, the process proceeds to step S180. End all autonomous driving processes.

단계 S120에서 스테레오 카메라(C1,C2)에 의해 전방의 장애물 또는 작물이 촬영되고 생성된 각각의 스테레오 영상을 수신한다. In step S120, an obstacle or crop in front is photographed by the stereo cameras C1 and C2, and each of the generated stereo images is received.

단계 S130에서는 수신된 스테레오 영상을 이용하여 자율주행 제어부(100)는 작물의 높이를 계산하기 위한 작물높이 센싱 알고리즘을 수행한다. 작물높이 센싱 알고리즘은 도 6를 참조하여 보다 상세하게 후술하도록 한다.In step S130, by using the received stereo image, the autonomous driving controller 100 performs a crop height sensing algorithm for calculating the height of the crop. The crop height sensing algorithm will be described later in more detail with reference to FIG. 6.

단계 S130에서 작물높이가 계산되면 자율주행 제어부(100)는 작물의 높이 기반하여 주행이 가능한지 여부를 판단하게 된다. 단계 S140에서 주행가능한 것으로 판단되면(즉 작물의 높이가 미리결정된 높이값 이하인 경우에는), 단계 S150에서 자율주행 제어부(100)는 엔진 제어부에 계속하여 작업할 것을 지시하고, 단계 S140에서 주행불가능한 것으로 판단되면(즉 작물의 높이가 미리결정된 높이값을 초과한 경우에는), 단계는 S160으로 진행하여 자율주행 제어부(100)는 엔진 제어부에 정지할 것을 지시한다. When the height of the crop is calculated in step S130, the autonomous driving control unit 100 determines whether driving is possible based on the height of the crop. If it is determined that it can be driven in step S140 (that is, when the height of the crop is less than a predetermined height value), in step S150 the autonomous driving control unit 100 instructs the engine control unit to continue working, and in step S140, it is determined that driving is impossible. If it is determined (that is, when the height of the crop exceeds the predetermined height value), the step proceeds to S160 and the autonomous driving control unit 100 instructs the engine control unit to stop.

단계 S170에서는 단계 S150 및 단계 S160과 같은 판단결과에 기반하여 자율주행을 종료하는 경우에는 단계 S180으로 진행하고 자율주행을 종료하지 않는 경우에는 단계는 S110으로 계속되어 단계 S110 ~ 단계S170을 반복하여 수행한다.In step S170, if the autonomous driving is terminated based on the determination result as in steps S150 and S160, the process proceeds to step S180, and if the autonomous driving is not terminated, the step continues to S110, and steps S110 to S170 are repeated. do.

다음으로 도 6는 본 발명에 따른 작물높이 센싱 알고리즘의 흐름을 나타내는 흐름도이다. 도 5에 도시된 흐름도는 도 3의 흐름도에서 단계 S130에 대응하는 도면으로 단계 S130의 동작을 보다 구체적으로 나타내고 있다.Next, Figure 6 is a flow chart showing the flow of the crop height sensing algorithm according to the present invention. The flowchart illustrated in FIG. 5 is a diagram corresponding to step S130 in the flowchart of FIG. 3 and shows the operation of step S130 in more detail.

도 6에 도시한 바와 같이, 단계 S120에서 스테레오카메라로부터 영상이 촬영되고 단계 S131에서 자율주행 제어부(100)의 영상수신부(110)에서 촬영된 스테레오 영상을 각각 수신하게 된다.As shown in FIG. 6, an image is captured from a stereo camera in step S120 and a stereo image captured by the image receiving unit 110 of the autonomous driving control unit 100 is respectively received in step S131.

단계 S132에서 수신된 스테레오 영상은 대응맵 생성부(120)로 보내지고 대응맵 생성부(120)는 스테레오 영상을 이용하여 대응맵을 생성한다.The stereo image received in step S132 is sent to the correspondence map generator 120 and the correspondence map generator 120 generates a correspondence map using the stereo image.

단계 S133에서 거리 계산부는 대응맵에 기반하여 목표 작물까지의 거리를 계산하고, 단계 S134에서 에지 검출을 통해 에지를 검출하고 에지 검출을 통해 연결된 구성요소들을 파악하고 이를 구성요소들별로 구분한다.(구분하는 의미가 맞는지 검토 필요)In step S133, the distance calculator calculates the distance to the target crop based on the corresponding map, and in step S134, the edge is detected through edge detection, and the connected components are identified through edge detection, and then classified by components. It is necessary to review whether the separating meaning is correct)

단계 S135에서는 구분된 구성요소들에 기반하여 목표 작물을 확인하고 목표 작물의 높이를 검출하기 위해 목표 작물만을 분할하는 작업이 수행된다.In step S135, a task of dividing only the target crop is performed in order to check the target crop and detect the height of the target crop based on the divided components.

단계 S136에서는 분할된 목표 작물에 대해 작물의 높이를 계산한다.In step S136, the height of the crop for the divided target crop is calculated.

본 발명에 따르면트랙터가 자율주행시 특정 높이의 작물을 만나게 되는 경우 작물의 높이를 계산하고 작물의 높이가 주행가능한 높이인 경우 자율주행을 계속 진행하는 반면 작물의 높이가 주행불가능한 높이인 것으로 판단된 경우 주행을 정하도록 구성되어 작물이 트랙터에 의해 손상 또는 홰손되는 것을 방지할 수 있게 되고, 또한 밭작업 기계화율을 증대시켜 밭농가에서 자율주행 트랙터 주행이 가능해질 뿐만 아니라, 장애물 인식을 통한 안전 확보에도 기여할 수 있다는 효과가 얻어질 수 있다.According to the present invention, when a tractor encounters a crop of a specific height during autonomous driving, the height of the crop is calculated, and when the height of the crop is the height that can be driven, the autonomous driving continues, whereas when it is determined that the height of the crop is a height that cannot be driven. It is configured to determine the driving so that crops can be prevented from being damaged or damaged by the tractor.In addition, by increasing the mechanization rate of field work, it is possible to drive an autonomous tractor in a field farm, and to secure safety through recognition of obstacles. The effect of being able to contribute can be obtained.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로, 본 발명이 속하는 기술분야에서 통상의 지식을 갖는 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 게시된 실시예는 본 발명의 기술 사상을 한정하기 위한 것이 아닌 설명을 위한 것이고, 이런 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains will be able to make various modifications and variations without departing from the essential characteristics of the present invention. Accordingly, the embodiments posted in the present invention are for explanation, not for limiting the technical idea of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments.

따라서 본 발명의 보호 범위는 전술한 실시예에 의해 제한되기 보다는 아래의 청구범위에 의하여 해석되어야하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다. Therefore, the scope of protection of the present invention should be interpreted by the following claims rather than limited by the above-described embodiments, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.

10: 자율주행 트랙터
100: 자율주행용 제어부
200: 스테레오 카메라
110: 영상 수신부
120: 대응맵생성부
130: 거리계산부
140: 높이계산부
300: 엔진제어부
10: autonomous tractor
100: control unit for autonomous driving
200: stereo camera
110: image receiving unit
120: response map generation unit
130: distance calculator
140: height calculation unit
300: engine control unit

Claims (8)

높이센싱 알고리즘을 구비한 자율주행 트랙터에 있어서,
상기 농작업용 트랙터는 트랙터의 전방에 설치되는 스테레오 카메라 및 상기 트랙터의 자율주행을 위한 자율주행용 제어부를 구비하고,
상기 스테레오 카메라는 트랙터의 자율주행시 전방의 물체를 스테레오방식으로 촬영하도록 구성되고,
상기 자율주행용 제어부는 상기 스테레오 카메라로부터 입력되는 적어도 2개의 스테레오 영상에 기반하여 전방 물체의 높이를 계산하도록 구성되고, 상기 계산된 전방 물체의 높이에 기반하여 트랙터의 자율주행을 계속 진행할 것인지 트랙터의 자율주행을 정지할 것인지를 판단하도록 구성된 것을 특징으로 하는
높이센싱 알고리즘을 구비한 자율주행 트랙터.
In an autonomous tractor with a height sensing algorithm,
The agricultural tractor includes a stereo camera installed in front of the tractor and a control unit for autonomous driving for autonomous driving of the tractor,
The stereo camera is configured to photograph an object in front of the tractor in a stereo manner during autonomous driving,
The autonomous driving control unit is configured to calculate the height of the front object based on at least two stereo images input from the stereo camera, and whether to continue the autonomous driving of the tractor based on the calculated height of the front object. Characterized in that it is configured to determine whether to stop autonomous driving
Self-driving tractor with height sensing algorithm.
제1항에 있어서,
상기 자율주행용 제어부는,
자율주행 제어부는 복수의 스테레오 카메라로부터의 영상을 취득하는 영상 수신부, 및
수신된 영상으로부터 거리 및 높이를 판단하는데 이용되는 대응맵(disparity map)을 생성하기 위한 대응맵 생성부를 더 포함하는 것을 특징으로하는
높이센싱 알고리즘을 구비한 자율주행 트랙터.
The method of claim 1,
The control unit for autonomous driving,
The autonomous driving control unit includes an image receiving unit that acquires images from a plurality of stereo cameras, and
Characterized in that it further comprises a correspondence map generator for generating a correspondence map (disparity map) used to determine the distance and height from the received image
Self-driving tractor with height sensing algorithm.
제2항에 있어서,
상기 자율주행용 제어부는 대응 맵으로부터 목표 장애물 또는 목표 작물까지의 거리를 계산하기 위한 거리계산부 및 적어도 거리계산부로부터 계산된 거리결과 이용하여 장애물 또는 작물의 높이를 계산하기 위한 높이 계산부를 더 포함하는 것을 특징으로 하는
높이센싱 알고리즘을 구비한 자율주행 트랙터.
The method of claim 2,
The autonomous driving control unit further includes a distance calculating unit for calculating the distance to the target obstacle or target crop from the corresponding map, and a height calculating unit for calculating the height of the obstacle or crop using at least the distance result calculated from the distance calculating unit. Characterized by
Self-driving tractor with height sensing algorithm.
제2항에 있어서,
상기 스테레오 카메라는 2개의 카메라로 이루어지고, 상기 2개의 카메라는 트랙터의 동일한 높이 부분에 서로 60mm ~ 70mm 범위 내에서 이격되어 설치되어 있는 것을 특징으로 하는
높이센싱 알고리즘을 구비한 자율주행 트랙터.
The method of claim 2,
The stereo camera is composed of two cameras, characterized in that the two cameras are spaced apart from each other within a range of 60mm ~ 70mm at the same height of the tractor.
Self-driving tractor with height sensing algorithm.
제1항에 있어서,
상기 스테레오 카메라는 제1 카메라 및 제2 카메라로 이루어지고, 제1 카메라 및 제2 카메라는 CCD(charge coupled device) 영상센서(image sensor), MOS(metal oxide semi-conductor) 영상 센서, CPD(charge priming device) 영상센서 및 CID(charge injection device) 영상센서 등과 같은 센서들 중 어느 하나의 센서를 이용하여 구현된 것을 특징으로 하는
높이센싱 알고리즘을 구비한 자율주행 트랙터.
The method of claim 1,
The stereo camera is composed of a first camera and a second camera, and the first camera and the second camera are a charge coupled device (CCD) image sensor, a metal oxide semi-conductor (MOS) image sensor, and a charge coupled device (CPD). priming device), characterized in that it is implemented using any one of sensors such as an image sensor and a charge injection device (CID) image sensor.
Self-driving tractor with height sensing algorithm.
제2항에 있어서,
대응맵 생성부는 제1 및 제2 영상을 통해 매칭을 수행하고, 상기 매칭 방법은 상기 스테레오 영상으로 입력된 제1 영상 또는 제2 영상 중에서 하나의 영상을 기준 영상으로 설정하고, 상기 선택된 기준 영상의 기준 픽셀 주위로 일정 영역의 블록을 설정하여, 선택되지 않은 나머지 영상에서 기준 영상의 상기 일정 영역의 블록과 대응되는 가장 유사한 영역을 찾아 변이를 추정하여 대응맵을 생성하는 것을 특징으로 하는
높이센싱 알고리즘을 구비한 자율주행 트랙터.
The method of claim 2,
The correspondence map generator performs matching through the first and second images, and the matching method sets one image among the first image or the second image input as the stereo image as a reference image, and By setting a block of a certain area around a reference pixel, finding the most similar area corresponding to the block of the certain area of the reference image from the remaining unselected images, and estimating the transition to generate a correspondence map.
Self-driving tractor with height sensing algorithm.
제3항에 있어서,
상기 거리계산부는 대응맵을 이용하여 카메라로부터 목표 작물까지의 거리 검출을 수행한 후 에지 검출을 수행하고, 에지 검출을 수행하여 서로 연결된 구성요소들을 각각 구분하도록 구성된 것을 특징으로 하는
높이센싱 알고리즘을 구비한 자율주행 트랙터.
The method of claim 3,
The distance calculator is configured to detect the distance from the camera to the target crop using the corresponding map, then perform edge detection, and perform edge detection to distinguish each of the connected components.
Self-driving tractor with height sensing algorithm.
제7항에 있어서,
상기 높이계산부는 연결된 구성요소들 중 목표 작물의 높이를 측정하기 위해 목표작물만을 분리해내는 분할화 처리를 더 수행하도록 구성된 것을 특징으로 하는
높이센싱 알고리즘을 구비한 자율주행 트랙터.
The method of claim 7,
The height calculator is configured to further perform a segmentation process of separating only the target crop in order to measure the height of the target crop among the connected components.
Self-driving tractor with height sensing algorithm.
KR1020190027511A 2019-03-11 2019-03-11 Autonomous tractor having crop hight sensing algorithm KR102238263B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190027511A KR102238263B1 (en) 2019-03-11 2019-03-11 Autonomous tractor having crop hight sensing algorithm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190027511A KR102238263B1 (en) 2019-03-11 2019-03-11 Autonomous tractor having crop hight sensing algorithm

Publications (3)

Publication Number Publication Date
KR20200108949A true KR20200108949A (en) 2020-09-22
KR102238263B1 KR102238263B1 (en) 2021-04-12
KR102238263B9 KR102238263B9 (en) 2022-12-08

Family

ID=72706868

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190027511A KR102238263B1 (en) 2019-03-11 2019-03-11 Autonomous tractor having crop hight sensing algorithm

Country Status (1)

Country Link
KR (1) KR102238263B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102483202B1 (en) 2022-09-02 2022-12-29 충남대학교산학협력단 Mechanical Active Lifting System for Weeding Robots

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10307627A (en) * 1997-05-07 1998-11-17 Fuji Heavy Ind Ltd Working border detecting device and copy travel controller for autonomous traveling work vehicle
JP2006260105A (en) * 2005-03-16 2006-09-28 Matsushita Electric Works Ltd Moving apparatus
KR20090014532A (en) * 2007-08-06 2009-02-11 삼성모바일디스플레이주식회사 The stereo matching system and the stereo matching method of the same
KR101674298B1 (en) * 2015-04-30 2016-11-08 영남대학교 산학협력단 Method for distance calculation using a camera lens focal length information
JP2017211734A (en) * 2016-05-24 2017-11-30 ヤンマー株式会社 Autonomous travel route generation system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10307627A (en) * 1997-05-07 1998-11-17 Fuji Heavy Ind Ltd Working border detecting device and copy travel controller for autonomous traveling work vehicle
JP2006260105A (en) * 2005-03-16 2006-09-28 Matsushita Electric Works Ltd Moving apparatus
KR20090014532A (en) * 2007-08-06 2009-02-11 삼성모바일디스플레이주식회사 The stereo matching system and the stereo matching method of the same
KR101674298B1 (en) * 2015-04-30 2016-11-08 영남대학교 산학협력단 Method for distance calculation using a camera lens focal length information
JP2017211734A (en) * 2016-05-24 2017-11-30 ヤンマー株式会社 Autonomous travel route generation system

Also Published As

Publication number Publication date
KR102238263B1 (en) 2021-04-12
KR102238263B9 (en) 2022-12-08

Similar Documents

Publication Publication Date Title
CN109063575B (en) Intelligent mower autonomous and orderly mowing method based on monocular vision
US11360571B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
EP2919197B1 (en) Object detection device and object detection method
CN110243372B (en) Intelligent agricultural machinery navigation system and method based on machine vision
US8265425B2 (en) Rectangular table detection using hybrid RGB and depth camera sensors
KR101083394B1 (en) Apparatus and Method for Building and Updating a Map for Mobile Robot Localization
EP3208635A1 (en) Vision algorithm performance using low level sensor fusion
KR102129738B1 (en) Autonomous tractor having crop hight sensing algorithm and hight correcting algorithm
US20120133739A1 (en) Image processing apparatus
KR20110011424A (en) Method for recognizing position and controlling movement of a mobile robot, and the mobile robot using the same
WO2020244414A1 (en) Obstacle detection method, device, storage medium, and mobile robot
CN110262487B (en) Obstacle detection method, terminal and computer readable storage medium
KR20170041775A (en) Object recognition device using plurality of object detection means
WO2020034963A1 (en) Charging device identification method, mobile robot and charging device identification system
JP2020060550A (en) Abnormality detector, method for detecting abnormality, posture estimating device, and mobile control system
EP3306529A1 (en) Machine control measurements device
CN109211260B (en) Intelligent vehicle driving path planning method and device and intelligent vehicle
JP3656056B2 (en) Interrupting vehicle detection device and method
US20200090347A1 (en) Apparatus for estimating movement information
KR102238263B1 (en) Autonomous tractor having crop hight sensing algorithm
US11713044B2 (en) Vehicle for estimation a state of the other vehicle using reference point of the other vehicle, and method of controlling the vehicle
US20200347579A1 (en) Tip attachment discrimination device
CN115703234B (en) Robot control method, device, robot and storage medium
KR100586648B1 (en) The methode of self-localization for cleaning robot using ceiling image
US11069049B2 (en) Division line detection device and division line detection method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]