KR102127312B1 - Moving body, particularly agricultural working vehicle and system of controlling the same - Google Patents

Moving body, particularly agricultural working vehicle and system of controlling the same Download PDF

Info

Publication number
KR102127312B1
KR102127312B1 KR1020180158247A KR20180158247A KR102127312B1 KR 102127312 B1 KR102127312 B1 KR 102127312B1 KR 1020180158247 A KR1020180158247 A KR 1020180158247A KR 20180158247 A KR20180158247 A KR 20180158247A KR 102127312 B1 KR102127312 B1 KR 102127312B1
Authority
KR
South Korea
Prior art keywords
vehicle body
agricultural work
posture
work vehicle
information
Prior art date
Application number
KR1020180158247A
Other languages
Korean (ko)
Other versions
KR20200070755A (en
Inventor
류홍근
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020180158247A priority Critical patent/KR102127312B1/en
Publication of KR20200070755A publication Critical patent/KR20200070755A/en
Application granted granted Critical
Publication of KR102127312B1 publication Critical patent/KR102127312B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B69/00Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
    • A01B69/007Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow
    • A01B69/008Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow automatic
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Soil Sciences (AREA)
  • Environmental Sciences (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Guiding Agricultural Machines (AREA)

Abstract

일 실시예에 따른 농업용 작업 차량은 주행 경로를 따라 이동하기 위한 차체; 상기 차체에 설치되어 상기 차체의 현재 위치 및 자세를 감지하는 센서와, 상기 차체에 설치되어 상기 차체의 주변 환경의 영상 이미지를 획득하는 카메라를 포함하는 디텍터; 및 상기 차체의 현재 위치 및 자세에 기초하여 상기 차체의 현재 상태를 생성하는 현재 상태 생성부와, 상기 영상 이미지에 기초하여 상기 차체의 주행 가능한 영역 정보를 생성하는 주행 영역 생성부와, 상기 차체의 현재 상태 및 상기 차체의 주행 가능한 영역 정보에 기초하여 상기 차체의 목표 위치 및 자세를 결정하는 다음 상태 결정부와, 상기 차체의 목표 위치 및 자세에 기초하여 상기 차체를 제어하는 제어부를 포함하는 프로세서를 포함할 수 있다.An agricultural work vehicle according to an embodiment includes a vehicle body for moving along a driving path; A detector installed on the vehicle body to sense a current position and posture of the vehicle body, and a detector installed on the vehicle body to acquire a video image of a surrounding environment of the vehicle body; And a current state generating unit generating a current state of the vehicle body based on a current position and posture of the vehicle body, a driving area generating unit generating information about a travelable area of the vehicle body based on the image image, and of the vehicle body. A processor including a next state determination unit that determines a target position and a posture of the vehicle body based on a current state and information on a vehicle's travelable area, and a control unit that controls the vehicle body based on the target position and posture of the vehicle body It can contain.

Description

이동체, 특히 농업용 작업 차량 및 이의 제어 시스템{MOVING BODY, PARTICULARLY AGRICULTURAL WORKING VEHICLE AND SYSTEM OF CONTROLLING THE SAME}A moving vehicle, especially an agricultural work vehicle, and a control system thereof [MOVING BODY, PARTICULARLY AGRICULTURAL WORKING VEHICLE AND SYSTEM OF CONTROLLING THE SAME}

이하, 실시예들은 이동체 및 이의 제어 시스템에 관한 것이다.Hereinafter, embodiments relate to a moving object and a control system thereof.

농업용 작업 차량은 경작지 내의 작물을 관리하기 위한 차량으로, 작물의 손상 없이 경작지를 주행할 것이 요구된다. 이에 따라, 농업용 작업 차량이 경작지 내에서 정밀하게 주행하기 위해 사용자의 숙련된 경험 및 집중력이 요구된다. 이와 같은 요구에 맞게 농업용 작업 차량을 자동으로 제어하는 방법 및 장치가 개발되고 있다. 예를 들어, 농업용 작업 차량에 GPS 시스템을 설치한 후, GPS 시스템을 통해 농업용 작업 차량이 주행하는 도로의 특성을 감지하는 방식이 있다.The agricultural work vehicle is a vehicle for managing crops in arable land, and it is required to drive the arable land without damaging the crop. Accordingly, the user's skilled experience and concentration are required for the agricultural work vehicle to accurately drive within the cultivated land. A method and apparatus for automatically controlling an agricultural work vehicle have been developed to meet such needs. For example, after installing a GPS system in an agricultural work vehicle, there is a method of sensing a characteristic of a road on which the agricultural work vehicle travels through the GPS system.

한국공개특허공보 제10-2017-0053332호 (2017.05.16. 공개)Korean Patent Publication No. 10-2017-0053332 (released on May 16, 2017)

일 실시예에 따른 목적은 별도의 지리 정보 데이터베이스 없이 3차원 공간 정보가 아닌 2차원 영상 정보를 이용하여 경작지를 주행하는 이동체 및 이의 제어 시스템을 제공하는 것이다.An object according to an embodiment is to provide a moving object and a control system thereof for driving a farmland using 2D image information instead of 3D spatial information without a separate geographic information database.

일 실시예에 따른 농업용 작업 차량은 주행 경로를 따라 이동하기 위한 차체; 상기 차체에 설치되어 상기 차체의 현재 위치 및 자세를 감지하는 센서와, 상기 차체에 설치되어 상기 차체의 주변 환경의 영상 이미지를 획득하는 카메라를 포함하는 디텍터; 및 상기 차체의 현재 위치 및 자세에 기초하여 상기 차체의 현재 상태를 생성하는 현재 상태 생성부와, 상기 영상 이미지에 기초하여 상기 차체의 주행 가능한 영역 정보를 생성하는 주행 영역 생성부와, 상기 차체의 현재 상태 및 상기 차체의 주행 가능한 영역 정보에 기초하여 상기 차체의 목표 위치 및 자세를 결정하는 다음 상태 결정부와, 상기 차체의 목표 위치 및 자세에 기초하여 상기 차체를 제어하는 제어부를 포함하는 프로세서를 포함할 수 있다.An agricultural work vehicle according to an embodiment includes a vehicle body for moving along a driving path; A detector installed on the vehicle body to sense a current position and posture of the vehicle body, and a detector installed on the vehicle body to acquire a video image of a surrounding environment of the vehicle body; And a current state generating unit generating a current state of the vehicle body based on a current position and posture of the vehicle body, a driving area generating unit generating information about a travelable area of the vehicle body based on the image image, and of the vehicle body. A processor including a next state determination unit that determines a target position and a posture of the vehicle body based on a current state and information on a vehicle's travelable area, and a control unit that controls the vehicle body based on the target position and posture of the vehicle body It can contain.

상기 다음 상태 결정부는 상기 차체의 현재 위치 및 자세를 기준으로 상기 차체의 목표 위치 및 자세를 가리키는 제어 벡터를 생성하고, 생성된 제어 벡터를 상기 제어부에 전달할 수 있다.The next state determining unit may generate a control vector indicating a target position and attitude of the vehicle body based on the current position and attitude of the vehicle body, and transmit the generated control vector to the control unit.

상기 카메라는 근적외 대역의 빛 및 가시 대역의 빛 중 적어도 하나 이상을 이용하여 상기 차체의 주변 환경의 영상 이미지를 획득할 수 있다.The camera may acquire a video image of a surrounding environment of the vehicle body using at least one of light in the near-infrared band and light in the visible band.

일 실시예에 따른 이동체의 제어 시스템은 이동체의 현재 위치 및 자세를 감지하는 센서와, 이동체의 주변 환경의 영상 이미지를 획득하는 카메라를 포함하는 디텍터; 및 상기 이동체의 현재 위치 및 자세에 기초하여 상기 이동체의 현재 상태를 생성하는 현재 상태 생성부와, 상기 영상 이미지에 기초하여 상기 이동체의 주행 가능한 영역 정보를 생성하는 주행 영역 생성부와, 상기 이동체의 현재 상태 및 상기 이동체의 주행 가능한 영역 정보에 기초하여 상기 이동체의 목표 위치 및 자세를 결정하는 다음 상태 결정부와, 상기 이동체의 목표 위치 및 자세에 기초하여 상기 이동체를 제어하는 제어부를 포함하는 프로세서를 포함할 수 있다.A control system for a moving object according to an embodiment includes a sensor for detecting a current position and posture of the moving object, and a detector including a camera that acquires a video image of a surrounding environment of the moving object; And a current state generating unit generating a current state of the moving object based on the current position and posture of the moving object, a driving area generating unit generating driving area information of the moving object based on the image image, and of the moving object. A processor including a next state determination unit for determining a target position and a posture of the moving object based on a current state and information on a movable area of the moving object, and a control unit for controlling the moving object based on the target position and posture of the moving object. It can contain.

상기 다음 상태 결정부는 상기 이동체의 현재 위치 및 자세를 기준으로 상기 이동체의 목표 위치 및 자세를 가리키는 제어 벡터를 생성하고, 생성된 제어 벡터를 상기 제어부에 전달할 수 있다.The next state determining unit may generate a control vector indicating a target position and a posture of the moving object based on the current position and posture of the moving object, and transmit the generated control vector to the control unit.

상기 카메라는 근적외 대역의 빛 및 가시 대역의 빛 중 적어도 하나 이상을 이용하여 상기 이동체의 주변 환경의 영상 이미지를 획득할 수 있다.The camera may acquire a video image of the surrounding environment of the moving object using at least one of light in the near-infrared band and light in the visible band.

일 실시예에 따른 농업용 작업 차량의 제어 시스템은 지면, 상기 지면에 대해 수직하는 복수 개의 수직 구조체들 및 상기 복수 개의 수직 구조체들을 연결하는 복수 개의 수평 구조체들 중 적어도 하나 이상을 포함하는 주변 환경에 형성되는 식별자; 및 상기 지면 상에서 이동하기 위한 차체와, 상기 식별자를 포함하는 주변 환경의 2차원 영상 이미지를 획득하고 상기 차체의 관성 정보를 감지하는 디텍터와, 상기 2차원 영상 이미지 및 상기 차체의 관성 정보에 기초하여 상기 지면 상의 차체의 목표 관성 정보를 결정하는 프로세서를 포함하는 농업용 작업 차량을 포함할 수 있다.A control system for an agricultural work vehicle according to an embodiment is formed in a surrounding environment including at least one of a ground, a plurality of vertical structures perpendicular to the ground, and a plurality of horizontal structures connecting the plurality of vertical structures. Become an identifier; And a detector for moving on the ground, a detector for acquiring a two-dimensional image image of the surrounding environment including the identifier, and detecting inertia information of the vehicle body, and based on the two-dimensional image image and the inertia information of the vehicle body. An agricultural work vehicle including a processor for determining target inertia information of the vehicle body on the ground may be included.

상기 프로세서는 상기 2차원 영상 이미지에 포함된 식별자의 도형 정보, 색상 정보 및 명도 정보 중 적어도 하나 이상을 이용하여 상기 목표 관성 정보를 결정할 수 있다.The processor may determine the target inertia information using at least one of figure information, color information, and brightness information of an identifier included in the 2D image.

상기 프로세서는 상기 2차원 영상 이미지 상의 지면 및 상기 지면에 대해 수직하는 복수 개의 수직 구조체들 사이의 경계; 상기 복수 개의 수직 구조체들을 연결하는 복수 개의 수평 구조체들; 및 상기 지면 상의 판상체 중 적어도 하나 이상을 식별자로 인식할 수 있다.The processor includes a boundary between the ground on the 2D video image and a plurality of vertical structures perpendicular to the ground; A plurality of horizontal structures connecting the plurality of vertical structures; And it is possible to recognize at least one of the plate-like body on the paper as an identifier.

상기 프로세서는 상기 2차원 영상 이미지의 픽셀을 이용하여 상기 차체의 주행 가능한 영역 정보를 생성하고, 픽셀로 표현된 주행 가능한 영역 정보 및 상기 차체에 대한 상기 디텍터의 설정 관성 정보에 기초하여 2차원 영상 이미지 상의 차체의 목표 관성 정보를 결정할 수 있다.The processor generates driving area information of the vehicle body using pixels of the 2D video image, and based on the driving area information expressed in pixels and setting inertia information of the detector for the vehicle body, a 2D video image Target inertia information of the body of the jacket can be determined.

상기 식별자는 상기 복수 개의 수평 구조체들을 따라 형성되거나, 상기 복수 개의 수평 구조체들의 말단에 형성되거나, 상기 지면 및 상기 복수 개의 수직 구조체들이 이루는 경계에 형성되거나, 판상 형태로 상기 지면 상에 형성될 수 있다.The identifier may be formed along the plurality of horizontal structures, formed at the ends of the plurality of horizontal structures, formed at a boundary formed by the ground and the plurality of vertical structures, or formed on the ground in a plate shape. .

상기 식별자는 설정 파장의 빛을 반사 또는 흡수하는 패턴으로 형성되거나, 적어도 2가지 이상의 색상을 포함하는 패턴으로 형성되거나, 설정 파장의 빛을 발광하는 광원을 포함할 수 있다.The identifier may be formed in a pattern that reflects or absorbs light of a set wavelength, a pattern that includes at least two colors, or may include a light source that emits light of a set wavelength.

일 실시예에 따른 이동체, 특히 농업용 작업 차량은 3차원 공간 정보를 이용하는 고가의 GPS 시스템 없이 경작지 내에서 정밀하게 주행할 수 있다.A moving object according to an embodiment, particularly an agricultural work vehicle, can accurately drive within a farmland without an expensive GPS system using 3D spatial information.

일 실시예에 따른 이동체, 특히 농업용 작업 차량은 지리 정보 데이터베이스를 구축하기 위한 별도의 하드웨어 또는 소프트웨어 없이 경작지 내 주행 경로를 따라 이동할 수 있다.A moving object according to an embodiment, particularly an agricultural work vehicle, may move along a driving path in a farmland without additional hardware or software for constructing a geographic information database.

일 실시예에 따른 이동체, 특히 농업용 작업 차량 및 이의 제어 시스템의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the moving object according to one embodiment, especially the agricultural working vehicle and its control system are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 일 실시예에 따른 농업용 작업 차량의 제어 시스템의 블록도이다.
도 2는 도 1의 프로세서의 블록도이다.
도 3은 도 1의 카메라에 의해 획득된 영상 이미지의 일 예이다.
도 4는 일 실시예에 따른 농업용 작업 차량의 제어 시스템이 영상 이미지 상의 식별자를 인식하는 방식을 설명하기 위한 도면이다.
도 5 내지 도 7은 일 실시예에 따른 농업용 작업 차량을 제어하기 위해 사용되는 파라미터들을 설명하기 위한 도면들이다.
도 8은 일 실시예에 따른 농업용 작업 차량의 목표 위치 및 자세를 결정하는 방법을 설명하기 위한 도면들이다.
1 is a block diagram of a control system of an agricultural work vehicle according to an embodiment.
FIG. 2 is a block diagram of the processor of FIG. 1.
3 is an example of a video image acquired by the camera of FIG. 1.
4 is a diagram for explaining a method of recognizing an identifier on a video image by a control system of an agricultural work vehicle according to an embodiment.
5 to 7 are diagrams for describing parameters used to control an agricultural work vehicle according to an embodiment.
8 is a diagram for describing a method of determining a target position and posture of an agricultural work vehicle according to an embodiment.

이하, 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, embodiments will be described in detail through exemplary drawings. It should be noted that in adding reference numerals to the components of each drawing, the same components have the same reference numerals as possible even though they are displayed on different drawings. In addition, in describing the embodiments, when it is determined that detailed descriptions of related well-known structures or functions hinder understanding of the embodiments, detailed descriptions thereof will be omitted.

또한, 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the components of the embodiment, terms such as first, second, A, B, (a), (b), and the like can be used. These terms are only for distinguishing the component from other components, and the nature, order, or order of the component is not limited by the term. When a component is described as being "connected", "coupled" or "connected" to another component, the component may be directly connected to or connected to the other component, but another component between each component It should be understood that may be "connected", "coupled" or "connected".

어느 하나의 실시예에 포함된 구성요소와, 공통적인 기능을 포함하는 구성요소는, 다른 실시예에서 동일한 명칭을 사용하여 설명하기로 한다. 반대되는 기재가 없는 이상, 어느 하나의 실시예에 기재한 설명은 다른 실시예에도 적용될 수 있으며, 중복되는 범위에서 구체적인 설명은 생략하기로 한다.Components included in any one embodiment and components including a common function will be described using the same name in other embodiments. Unless there is an objection to the contrary, the description in any one embodiment may be applied to other embodiments, and a detailed description will be omitted in the overlapping range.

도 1은 일 실시예에 따른 농업용 작업 차량의 제어 시스템의 블록도이다.1 is a block diagram of a control system of an agricultural work vehicle according to an embodiment.

도 1을 참조하면, 일 실시예에 따른 농업용 작업 차량의 제어 시스템(1)은 농업용 작업 차량의 주변 환경에 대한 영상 이미지 및 농업용 작업 차량의 관성 정보에 기초하여 농업용 작업 차량의 주행 경로를 설정하고, 농업용 작업 차량이 설정된 주행 경로를 따라 이동할 수 있도록 차량을 제어할 수 있다. 농업용 작업 차량은 예를 들어 트랙터, 경운기 등을 포함할 수 있지만, 이에 제한되는 것은 아니고, 농업용 작업과 관련된 차량이라면 기타 통상의 기술자에게 자명한 모든 차량들을 포함할 수 있다. 한편, 일 실시예에 따른 제어 시스템(1)은 농업용 작업 차량에 적용될 뿐만 아니라, 이동하는 물체인 이동체에도 적용될 수 있음을 밝혀둔다.Referring to FIG. 1, the control system 1 for an agricultural work vehicle according to an embodiment sets a driving path of the agricultural work vehicle based on the image image of the surrounding environment of the agricultural work vehicle and the inertia information of the agricultural work vehicle , It is possible to control the vehicle so that the agricultural work vehicle can move along the set driving path. Agricultural work vehicles may include, for example, tractors, cultivators, etc., but are not limited thereto, and vehicles related to agricultural work may include all vehicles apparent to other skilled workers. On the other hand, it is revealed that the control system 1 according to an embodiment can be applied not only to agricultural work vehicles, but also to moving objects that are moving objects.

농업용 작업 차량의 제어 시스템(1)은 디텍터(110), 입력부(120), 프로세서(130), 구동부(140), 통신부(150) 및 표시부(160)를 포함할 수 있다.The control system 1 for an agricultural work vehicle may include a detector 110, an input unit 120, a processor 130, a driving unit 140, a communication unit 150, and a display unit 160.

디텍터(110)는 농업용 작업 차량의 관성 정보, 농업용 작업 차량의 주변 환경 등을 감지할 수 있다. 예를 들어, 디텍터(110)는 센서(112) 및 카메라(114)를 포함할 수 있다. 센서(112)는 농업용 작업 차량의 위치 및 자세를 감지할 수 있다. 일 예로, 센서(112)는 가속도 센서, 각속도 센서, 자이로 센서 등을 포함할 수 있다. 카메라(114)는 농업용 작업 차량의 주변 환경에 대한 영상 이미지를 획득할 수 있다. 여기서, 영상 이미지는 예를 들어 2차원 데카르트 좌표계로 표현되는 복수 개의 픽셀들을 포함할 수 있다. 일 예로, 카메라(114)는 근적외선(near infrared ray; NIR), 가시광선(visible ray), 또는 이들의 조합을 이용하여 영상 이미지를 획득할 수 있다. 또한 카메라(114)는 근적외선 또는 가시광선 레이저 광원을 사용하는 라이다 센서 영상 이미지를 획득할 수 있다. 상기와 같은 센서(112) 및 카메라(114)는 농업용 작업 차량에 설치될 수 있다.The detector 110 may detect inertia information of the agricultural work vehicle, the surrounding environment of the agricultural work vehicle, and the like. For example, the detector 110 may include a sensor 112 and a camera 114. The sensor 112 may detect the position and posture of an agricultural work vehicle. As an example, the sensor 112 may include an acceleration sensor, an angular velocity sensor, a gyro sensor, and the like. The camera 114 may acquire a video image of the surrounding environment of the agricultural work vehicle. Here, the image image may include a plurality of pixels represented by, for example, a two-dimensional Cartesian coordinate system. For example, the camera 114 may acquire an image image using near infrared ray (NIR), visible ray, or a combination thereof. In addition, the camera 114 may acquire a lidar sensor image image using a near infrared or visible laser light source. The sensor 112 and the camera 114 as described above may be installed in an agricultural work vehicle.

입력부(120)는 농업용 작업 차량의 사용자로부터의 입력을 수신할 수 있다. 예를 들어, 입력부(120)는 농업용 작업 차량의 탑승 인원에 관한 입력, 날씨 정보에 관한 입력, 농업용 작업 차량에 적재된 짐의 중량에 관한 입력, 농업용 작업 차량이 이동하는 주행 경로의 상태에 관한 입력, 농업용 작업 차량의 주행 제어에 관한 입력 등을 수신할 수 있다.The input unit 120 may receive input from a user of an agricultural work vehicle. For example, the input unit 120 may input on the number of people in the agricultural work vehicle, input on weather information, input on the weight of the load loaded on the agricultural work vehicle, and the status of the driving route through which the agricultural work vehicle moves. Inputs, inputs related to driving control of an agricultural work vehicle, and the like can be received.

프로세서(130)는 구동부(140), 통신부(150) 및 표시부(160)에 각각 명령 신호를 송신할 수 있다.The processor 130 may transmit command signals to the driving unit 140, the communication unit 150, and the display unit 160, respectively.

프로세서(130)는 농업용 작업 차량의 관성 정보, 농업용 작업 차량의 주변 환경에 대한 영상 이미지 및 사용자의 입력 중 적어도 하나 이상에 기초하여 농업용 작업 차량의 현재 상태에 관한 정보 및 농업용 작업 차량의 주행 가능한 영역에 관한 정보를 각각 생성하고, 상기 정보들에 기초하여 농업용 작업 차량의 목표 관성 정보를 결정할 수 있다.Processor 130 based on at least one of the inertia information of the agricultural work vehicle, a video image of the surrounding environment of the agricultural work vehicle and the user's input, information about the current state of the agricultural work vehicle and the driveable area of the agricultural work vehicle It generates information on each, and based on the information, it is possible to determine the target inertia information of the agricultural work vehicle.

프로세서(130)는 농업용 작업 차량의 주변 환경에 대한 영상 이미지를 구성하는 복수 개의 픽셀들을 이용하여 농업용 작업 차량의 주행 가능한 영역 정보를 생성할 수 있다. 여기서, 주행 가능한 영역 정보는 복수 개의 픽셀들로 표현될 수 있다. 프로세서(130)는 농업용 작업 차량에 설치되는 카메라(114)의 설정 관성 정보 및 복수 개의 픽셀들로 표현된 주행 가능한 영역 정보에 기초하여 영상 이미지 상의 목표 관성 정보를 결정할 수 있다. 예를 들어, 카메라(114)의 설정 관성 정보는 차량에 대한 카메라(114)의 높이, 카메라(114)의 기울기 등을 포함할 수 있다.The processor 130 may generate driving area information of the agricultural work vehicle using a plurality of pixels constituting a video image of the surrounding environment of the agricultural work vehicle. Here, the travelable area information may be represented by a plurality of pixels. The processor 130 may determine target inertia information on the video image based on the set inertia information of the camera 114 installed in the agricultural work vehicle and the travelable area information represented by a plurality of pixels. For example, setting inertia information of the camera 114 may include a height of the camera 114 with respect to a vehicle, a tilt of the camera 114, and the like.

프로세서(130)는 농업용 작업 차량의 주변 환경에 대한 영상 이미지에 포함된 식별자를 인식할 수 있다. 식별자는 카메라(114)가 인식하기에 적합한 임의의 형태를 가질 수 있다. 식별자는 영상 이미지에 포함된 수직 구조체, 수평 구조체, 농업용 작업 차량이 이동하는 지면, 수직 구조체와 지면 사이의 경계, 지면 상의 판상 구조체 등을 포함할 수 있다. 예를 들어, 수직 구조체는 나무, 지주 등을 포함할 수 있고, 수평 구조체는 나무, 지주 등을 연결하는 라인, 물을 공급하기 위한 파이프 등을 포함할 수 있다. 또 다른 예로, 식별자는 설정 파장의 빛을 반사 또는 흡수하는 패턴으로 형성될 수 있다. 추가적인 예로, 식별자는 적어도 2가지 이상의 색상을 포함하는 패턴으로 형성될 수 있다. 상기 2가지의 경우, 식별자는 역반사 기능을 수행하는 물질로 형성될 수 있다. 또 다른 추가적인 예로, 식별자는 설정 파장의 빛을 발광하는 광원을 포함할 수 있다.The processor 130 may recognize an identifier included in a video image of the surrounding environment of an agricultural work vehicle. The identifier may have any form suitable for the camera 114 to recognize. The identifier may include a vertical structure, a horizontal structure, a ground on which an agricultural work vehicle moves, a boundary between the vertical structure and the ground, a plate-like structure on the ground, and the like, included in the video image. For example, the vertical structure may include a tree, a pillar, etc., and the horizontal structure may include a tree, a line connecting the pillars, a pipe for supplying water, and the like. As another example, the identifier may be formed in a pattern that reflects or absorbs light of a set wavelength. As a further example, the identifier may be formed in a pattern including at least two colors. In the above two cases, the identifier may be formed of a material that performs a retroreflective function. As another additional example, the identifier may include a light source that emits light of a set wavelength.

프로세서(130)는 일련의 인식 기법을 통해 영상 이미지에 포함된 식별자를 인식할 수 있다. 프로세서(130)는 영상 이미지의 도형 정보, 색상 정보 및 명도 정보 중 적어도 하나 이상을 이용하여 식별자를 인식할 수 있다. 일 예에서, 프로세서(130)는 영상 이미지에 포함된 수직 구조체 또는 수평 구조체를 하나의 직선으로 검출할 수 있다. 여기서, 직선 검출 방식은 예를 들어 영상 이미지에 대한 전처리 후 허프 변환(Hough transformation) 등을 포함할 수 있다. 또 다른 예에서, 프로세서(130)는 영상 이미지를 구성하는 복수 개의 픽셀들이 가지는 고유의 색상값이 설정 범위에 속하는지 여부에 기초하여 설정 범위 내의 고유의 색상값을 각각 가지는 복수 개의 픽셀들을 그룹화 함으로써 직선을 검출할 수도 있다. 또 다른 예에서, 프로세서(130)는 영상 이미지를 구성하는 복수 개의 픽셀들의 고유의 명도값이 설정 범위에 속하는지 여부에 기초하여 설정 범위 내의 고유의 명도값을 각각 가지는 복수 개의 픽셀들을 그룹화 함으로써 임의의 형태를 검출할 수도 있다. 프로세서(130)는 상기와 같은 식별자를 인식하여 농업용 작업 차량의 목표 관성 정보를 결정할 수 있다.The processor 130 may recognize an identifier included in a video image through a series of recognition techniques. The processor 130 may recognize the identifier using at least one of figure information, color information, and brightness information of the video image. In one example, the processor 130 may detect a vertical structure or horizontal structure included in the video image as one straight line. Here, the linear detection method may include, for example, Hough transformation after pre-processing a video image. In another example, the processor 130 groups a plurality of pixels each having a unique color value within the set range based on whether the unique color values of the plurality of pixels constituting the video image fall within the set range. A straight line can also be detected. In another example, the processor 130 may randomly group a plurality of pixels each having a unique brightness value within a set range based on whether or not the unique brightness values of a plurality of pixels constituting a video image fall within a set range. You can also detect the form of The processor 130 may determine the target inertia information of the agricultural work vehicle by recognizing the identifier as described above.

프로세서(130)는, 영상 이미지 상에서 식별자를 인식하지 못하는 경우, 예를 들어 농업용 작업 차량의 주변 환경이 영상 이미지를 획득하기에 복잡하고 다양한 환경 변화적인 요소들을 가지고 있는 경우, 농업용 작업 차량의 자세, 속도, 조향 각도 등에 대한 정보를 다시 획득할 것을 디텍터(110)에 명령할 수 있다.When the processor 130 does not recognize the identifier on the video image, for example, when the surrounding environment of the agricultural work vehicle has complex and various environmental change factors to acquire the video image, the attitude of the agricultural work vehicle, The detector 110 may be instructed to acquire information about speed, steering angle, and the like again.

프로세서(130)는 농업용 작업 차량에 설치될 수 있지만, 이에 제한되지 않고 농업용 작업 차량을 원격으로 제어하는 외부 시스템에 포함될 수도 있다.The processor 130 may be installed in an agricultural work vehicle, but is not limited thereto, and may be included in an external system that remotely controls the agricultural work vehicle.

구동부(140)는 프로세서(130)로부터 명령 신호를 수신하여 농업용 작업 차량의 구동을 제어할 수 있다. 예를 들어, 구동부(140)는 모터, 엔진 등을 포함할 수 있다.The driving unit 140 may receive a command signal from the processor 130 to control driving of the agricultural work vehicle. For example, the driving unit 140 may include a motor, an engine, and the like.

통신부(150)는 프로세서(130)로부터 명령 신호를 수신하여 농업용 작업 차량을 원격으로 제어하는 외부 시스템과 통신을 수행할 수 있다. 예를 들어, 통신부(150)는 무선 통신 방식을 사용할 수 있다.The communication unit 150 may receive a command signal from the processor 130 to communicate with an external system that remotely controls the agricultural work vehicle. For example, the communication unit 150 may use a wireless communication method.

표시부(160)는 사용자가 농업용 작업 차량의 상태를 모니터링 할 수 있도록 농업용 작업 차량의 상태와 관련한 정보를 표시할 수 있다. 표시부(160)는 농업용 작업 차량에 설치될 수 있지만, 이에 제한되지 않고 농업용 작업 차량을 원격으로 제어하는 외부 시스템에 설치될 수도 있다.The display unit 160 may display information related to the state of the agricultural work vehicle so that the user can monitor the state of the agricultural work vehicle. The display unit 160 may be installed in an agricultural work vehicle, but is not limited thereto, and may be installed in an external system that remotely controls the agricultural work vehicle.

도 2는 도 1의 프로세서의 블록도이다.FIG. 2 is a block diagram of the processor of FIG. 1.

도 2를 참조하면, 일 실시예에 따른 프로세서(130)는 정보 입출력부(131), 주행 영역 생성부(133), 현재 상태 생성부(135), 다음 상태 생성부(137) 및 제어부(139)를 포함할 수 있다.Referring to FIG. 2, the processor 130 according to an embodiment includes an information input/output unit 131, a driving area generation unit 133, a current state generation unit 135, a next state generation unit 137, and a control unit 139 ).

정보 입출력부(131)는 농업용 작업 차량의 관성 정보, 농업용 작업 차량의 주변 환경에 대한 영상 이미지, 사용자의 입력 및 사용자에게 표시할 출력, 명령 신호에 따른 농업용 작업 차량의 구동 정보, 통신 정보 등의 출력 등을 중계할 수 있다.The information input/output unit 131 includes inertia information of the agricultural work vehicle, a video image of the surrounding environment of the agricultural work vehicle, user input and output to the user, driving information of the agricultural work vehicle according to a command signal, communication information, and the like. Outputs can be relayed.

주행 영역 생성부(133)는 농업용 작업 차량의 주변 환경에 대한 영상 이미지를 수신하여 농업용 작업 차량의 주행 가능한 영역 정보를 생성할 수 있다. 현재 상태 생성부(135)는 농업용 작업 차량의 관성 정보를 수신하여 농업용 작업 차량의 현재 상태를 생성할 수 있다.The driving area generating unit 133 may receive a video image of the surrounding environment of the agricultural working vehicle and generate driving area information of the agricultural working vehicle. The current state generating unit 135 may receive the inertia information of the agricultural work vehicle and generate the current state of the agricultural work vehicle.

다음 상태 결정부(137)는 농업용 작업 차량의 현재 상태 및 농업용 작업 차량의 주행 가능한 영역 정보에 기초하여 농업용 작업 차량의 목표 관성 정보를 결정할 수 있다. 여기서, 목표 관성 정보는 농업용 작업 차량의 목표 위치 및 자세를 포함할 수 있다.Next, the state determining unit 137 may determine target inertia information of the agricultural work vehicle based on the current state of the agricultural work vehicle and information about the travelable area of the agricultural work vehicle. Here, the target inertia information may include the target position and posture of the agricultural work vehicle.

다음 상태 결정부(137)는 농업용 작업 차량의 목표 관성 정보를 결정할 때 농업용 작업 차량의 현재 위치 및 자세를 기준으로 농업용 작업 차량의 목표 위치 및 자세를 가리키는 제어 벡터를 생성할 수 있다. 다음 상태 결정부(137)는 생성된 제어 벡터를 제어부(139)로 전달할 수 있다.When determining the target inertia information of the agricultural work vehicle, the next state determination unit 137 may generate a control vector indicating the target position and attitude of the agricultural work vehicle based on the current position and attitude of the agricultural work vehicle. The next state determination unit 137 may transmit the generated control vector to the control unit 139.

제어부(139)는 다음 상태 결정부(137)로부터 전달받은 제어 벡터에 기초하여 정보 입출력부(131)로 명령 신호를 송신할 수 있다. 상기 명령 신호에는 농업용 작업 차량을 제어하기 위한 구동 정보가 포함될 수 있다. 상기 구동 정보는 농업용 작업 차량의 조향, 구동 토크 등을 포함할 수 있다.The control unit 139 may transmit a command signal to the information input/output unit 131 based on the control vector received from the next state determination unit 137. The command signal may include driving information for controlling an agricultural work vehicle. The driving information may include steering, driving torque, and the like of an agricultural work vehicle.

도 3은 도 1의 카메라에 의해 획득된 영상 이미지의 일 예이고, 도 4는 일 실시예에 따른 농업용 작업 차량의 제어 시스템이 영상 이미지 상의 식별자를 인식하는 방식을 설명하기 위한 도면이다.FIG. 3 is an example of a video image acquired by the camera of FIG. 1, and FIG. 4 is a view for explaining a method of recognizing an identifier on the video image by a control system of an agricultural work vehicle according to an embodiment.

도 3 및 도 4를 참조하면, 일 실시예에 따른 농업용 작업 차량의 제어 시스템은 도 3과 같은 농업용 작업 차량의 주변 환경에 대한 영상 이미지(IM)를 획득할 수 있다. 농업용 작업 차량의 제어 시스템은 영상 이미지(IM)에서 잎(leave), 잡초(weed), 구름(cloud), 하늘(sky) 등이 상대적으로 밝게 보이는 점 및 나무 줄기(tree trunk), 나뭇가지(branch), 흙(soil) 등이 상대적으로 어둡게 보이는 점을 이용할 수 있다.Referring to FIGS. 3 and 4, the control system of the agricultural work vehicle according to an embodiment may acquire an image image IM of the surrounding environment of the agricultural work vehicle as illustrated in FIG. 3. The control system of agricultural work vehicles includes relatively bright spots such as leaves, weeds, clouds, and sky in the image image (IM) and tree trunks and branches ( Branches, soils, etc. can be used for points that appear relatively dark.

농업용 작업 차량의 제어 시스템은 영상 이미지(IM)에서 지면(G), 지면(G)에 수직하는 복수 개의 수직 구조체(V)들, 복수 개의 수직 구조체(V)들을 연결하는 복수 개의 수평 구조체(H)들, 지면(G)을 따라 연장하는 복수 개의 경계 라인(L)들, 지면(G)과 복수 개의 수직 구조체(V)들 사이의 경계점(P), 지면(G) 상의 판상체(R) 등을 식별자로 인식할 수 있다. 일 예로, 복수 개의 수직 구조체(V)들은 나무 줄기, 지주 등을 포함할 수 있고, 복수 개의 수평 구조체(H)들은 나무 줄기에 물을 공급하기 위한 파이프 라인 등을 포함할 수 있다. 또한, 판상체(R)는 특정 파장의 빛을 반사하는 패턴 또는 흡수하는 패턴으로 형성될 수 있다. 또 다른 예로, 판상체(R)는 발광 다이오드와 같은 광원을 포함할 수도 있다. 추가적인 예로, 판상체(R)는 색상 대비 또는 명도 대비가 높은 적어도 2가지 이상의 색상으로 형성된 반사 패턴 또는 흡수 패턴으로 형성될 수 있다. 또한, 판상체(R)는 광원을 포함하는 경우에도 상기와 같은 반사 패턴 또는 흡수 패턴으로 형성될 수도 있다. 대안적인 예에서, 지면(G) 상의 판상체(R)는 지면(G) 뿐만 아니라 복수 개의 수직 구조체(V)들 또는 복수 개의 수평 구조체(H)들에도 설치될 수 있다.The control system of the agricultural work vehicle includes a plurality of horizontal structures (H) connecting a plurality of vertical structures (V) perpendicular to the ground (G), the ground (G) in the image image (IM) (H) ), a plurality of boundary lines L extending along the ground G, a boundary point P between the ground G and the plurality of vertical structures V, and a plate-like body R on the ground G Etc. can be recognized as an identifier. For example, the plurality of vertical structures V may include a tree trunk, a post, and the plurality of horizontal structures H may include a pipeline for supplying water to the tree trunk. Further, the plate-like body R may be formed in a pattern that reflects light of a specific wavelength or a pattern that absorbs it. As another example, the plate-shaped body R may include a light source such as a light emitting diode. As a further example, the plate-like body R may be formed of a reflection pattern or an absorption pattern formed of at least two colors having high color contrast or brightness contrast. Further, the plate-shaped body R may be formed in the above-described reflection pattern or absorption pattern even when it includes a light source. In an alternative example, the plate-like body R on the ground G may be installed not only on the ground G, but also on a plurality of vertical structures V or a plurality of horizontal structures H.

농업용 작업 차량의 제어 시스템은 머신 러닝 기법을 이용하여 영상 이미지(IM)에 포함된 식별자를 인식할 수 있다. 예를 들어, 제어 시스템은 나이브 베이즈 분류(naive bayesian classification)를 적용할 수 있다. 이 경우, 제어 시스템은 나이브 베이즈 분류를 이용하여 영상 이미지(IM) 상에서 어느 하나의 수직 구조체(V)와 지면(G)이 이루는 경계점(P)들을 검출하고, 상기 경계점(P)들을 연결하여 자유 공간(free space)을 추출하고, 선형 회귀 분석(linear regression analysis)에 기초하여 자유 공간의 중심 라인(center line)을 추정한 후, 그 중심 라인을 농업용 작업 차량의 주행 경로로 설정할 수 있다.The control system of an agricultural work vehicle may recognize an identifier included in a video image IM using a machine learning technique. For example, the control system can apply naive bayesian classification. In this case, the control system detects the boundary points P formed by any one vertical structure V and the ground G on the image image IM using the naive Bayes classification, and connects the boundary points P After extracting a free space, and estimating a center line of free space based on a linear regression analysis, the center line can be set as a driving path of an agricultural work vehicle.

도 5 내지 도 7은 일 실시예에 따른 농업용 작업 차량을 제어하기 위해 사용되는 파라미터들을 설명하기 위한 도면들이다.5 to 7 are diagrams for describing parameters used to control an agricultural work vehicle according to an embodiment.

도 5 내지 도 7을 참조하면, 일 실시예에 따른 농업용 작업 차량(10)은 주행 경로(MP)를 따라 이동하기 위한 차체(100)를 포함할 수 있다. 차체(100)에는 센서(미도시) 및 카메라(114)를 포함하는 디텍터가 설치될 수 있다. 카메라(114)는 차체(100)에 대해 설정 틸트 각도(

Figure 112018123534911-pat00001
) 및 설정 롤 각도(roll angle)를 이루며 차체(100)에 설치될 수 있다. 예를 들어, 틸트 각도(
Figure 112018123534911-pat00002
) 및 롤 각도는 각각 실질적으로 0도로 설정되어 카메라(114)의 광축(optical axis)이 지면에 실질적으로 평행할 수 있다. 또한, 광축을 기준으로 수직 방향으로의 카메라(114)의 수직 각도(
Figure 112018123534911-pat00003
), 광축을 기준으로 수평 방향으로 카메라(114)의 수평 각도(
Figure 112018123534911-pat00004
) 및 지면에 대한 카메라(114)의 높이, 차체(100)의 속도, 카메라(114)의 이미지 획득 주기 등을 설정하고, 상기와 같은 파라미터들에 기초하여 농업용 작업 차량(10)의 주행 가능한 영역 및 목표 관성 정보가 결정될 수 있다.5 to 7, the agricultural work vehicle 10 according to an embodiment may include a vehicle body 100 for moving along the driving path MP. A detector including a sensor (not shown) and a camera 114 may be installed in the vehicle body 100. The camera 114 has a tilt angle set relative to the vehicle body 100 (
Figure 112018123534911-pat00001
) And a set roll angle, and may be installed in the vehicle body 100. For example, the tilt angle (
Figure 112018123534911-pat00002
) And the roll angle are each set to substantially 0 degrees so that the optical axis of the camera 114 can be substantially parallel to the ground. In addition, the vertical angle of the camera 114 in the vertical direction with respect to the optical axis (
Figure 112018123534911-pat00003
), the horizontal angle of the camera 114 in the horizontal direction with respect to the optical axis (
Figure 112018123534911-pat00004
) And the height of the camera 114 with respect to the ground, the speed of the vehicle body 100, the image acquisition cycle of the camera 114, and the like, based on the above parameters, the driving area of the agricultural work vehicle 10 And target inertia information.

도 8은 일 실시예에 따른 농업용 작업 차량의 목표 위치 및 자세를 결정하는 방법을 설명하기 위한 도면들이다.8 is a diagram for describing a method of determining a target position and posture of an agricultural work vehicle according to an embodiment.

도 8을 참조하면, 농업용 작업 차량(10)은 차체(100)의 중심(C)을 기준으로 하는 현재 주행 방향(CD)에 대해, 목표 조향 각도(

Figure 112018123534911-pat00005
)만큼 회전된, 차체(100)의 중심(C)을 기준으로 목표 위치(TP)를 가리키는 목표 주행 방향(TD)을 결정할 수 있다. 예를 들어, 농업용 작업 차량(10)은 머신 비전(machine vision) 방식을 이용하여 목표 주행 방향(TD)을 결정할 수 있다. 이 경우 사용자가 목표 주행 방향(TD)을 설정하는 것보다 더 안정적이고 정확한 주행 경로의 설정이 가능하다.Referring to FIG. 8, the agricultural work vehicle 10 has a target steering angle (with respect to the current driving direction CD based on the center C of the vehicle body 100)
Figure 112018123534911-pat00005
), the target driving direction TD indicating the target position TP based on the center C of the vehicle body 100 may be determined. For example, the agricultural work vehicle 10 may determine a target driving direction TD using a machine vision method. In this case, it is possible to set a more stable and accurate driving path than the user sets the target driving direction TD.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiments or may be known and usable by those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. Includes hardware devices specifically configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language code that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by a limited embodiment and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques are performed in a different order than the described method, and/or the components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or other components Alternatively, proper results can be achieved even if replaced or substituted by equivalents.

Claims (12)

주행 경로를 따라 이동하기 위한 차체;
상기 차체에 설치되어 상기 차체의 현재 위치 및 자세를 감지하는 센서와, 상기 차체에 설치되어 상기 차체의 주변 환경의 영상 이미지를 획득하는 카메라를 포함하는 디텍터; 및
상기 차체의 현재 위치 및 자세에 기초하여 상기 차체의 현재 상태를 생성하는 현재 상태 생성부와, 상기 영상 이미지에 기초하여 상기 차체의 주행 가능한 영역 정보를 생성하는 주행 영역 생성부와, 상기 차체의 현재 상태 및 상기 차체의 주행 가능한 영역 정보에 기초하여 상기 차체의 목표 위치 및 자세를 결정하는 다음 상태 결정부와, 상기 차체의 목표 위치 및 자세에 기초하여 상기 차체를 제어하는 제어부를 포함하는 프로세서;
를 포함하고,
상기 영상 이미지는 2차원 좌표계로 표현되는 복수 개의 픽셀들을 가지고, 상기 영상 이미지는 상기 주변 환경에 형성되는 식별자를 포함하고, 상기 식별자는 상기 주변 환경의 지면과, 상기 지면에 대해 수직하는 나무 또는 지주를 포함하는 복수 개의 수직 구조체들과, 상기 복수 개의 수직 구조체들을 연결하는 라인 또는 파이프를 포함하는 복수 개의 수평 구조체들을 포함하고,
상기 프로세서는 상기 복수 개의 픽셀들의 고유의 특성값을 기초로 상기 복수 개의 픽셀들을 그룹화함으로써 상기 식별자의 형태를 검출하고, 상기 식별자를 이용하여 상기 차체의 목표 위치 및 자세를 결정하는 농업용 작업 차량.
A vehicle body for moving along a driving path;
A detector installed on the vehicle body to sense a current position and posture of the vehicle body, and a detector installed on the vehicle body to acquire a video image of a surrounding environment of the vehicle body; And
A current state generating unit that generates a current state of the vehicle body based on a current position and posture of the vehicle body, a driving area generation unit that generates driving area information of the vehicle body based on the video image, and a current of the vehicle body A processor including a next state determination unit that determines a target position and a posture of the vehicle body based on a state and information on a travelable area of the vehicle body, and a control unit that controls the vehicle body based on the target position and posture of the vehicle body;
Including,
The video image has a plurality of pixels represented by a two-dimensional coordinate system, the video image includes an identifier formed in the surrounding environment, and the identifier is a tree or a post perpendicular to the ground of the surrounding environment and the ground It includes a plurality of vertical structures including a plurality of horizontal structures including a line or pipe connecting the plurality of vertical structures,
The processor detects the type of the identifier by grouping the plurality of pixels based on the unique characteristic values of the plurality of pixels, and uses the identifier to determine a target position and posture of the vehicle body.
제1항에 있어서,
상기 다음 상태 결정부는 상기 차체의 현재 위치 및 자세를 기준으로 상기 차체의 목표 위치 및 자세를 가리키는 제어 벡터를 생성하고, 생성된 제어 벡터를 상기 제어부에 전달하는 농업용 작업 차량.
According to claim 1,
The next state determining unit generates a control vector indicating a target position and a posture of the vehicle body based on the current position and posture of the vehicle body, and delivers the generated control vector to the control unit.
제1항에 있어서,
상기 카메라는 근적외 대역의 빛 및 가시 대역의 빛 중 적어도 하나 이상을 이용하여 상기 차체의 주변 환경의 영상 이미지를 획득하는 농업용 작업 차량.
According to claim 1,
The camera is an agricultural work vehicle for acquiring a video image of the surrounding environment of the vehicle body using at least one of light in the near-infrared band and light in the visible band.
제1항에 있어서,
상기 프로세서는 상기 2차원 영상 이미지에 포함된 식별자의 도형 정보, 색상 정보 및 명도 정보 중 적어도 하나 이상을 이용하여 상기 차체의 목표 위치 및 자세를 결정하는 농업용 작업 차량.
According to claim 1,
The processor is an agricultural work vehicle for determining a target position and posture of the vehicle body using at least one of figure information, color information, and brightness information of an identifier included in the 2D video image.
제1항에 있어서,
상기 프로세서는
상기 2차원 영상 이미지 상의 지면 및 상기 지면에 대해 수직하는 복수 개의 수직 구조체들 사이의 경계;
상기 복수 개의 수직 구조체들을 연결하는 복수 개의 수평 구조체들; 및
상기 지면 상의 판상체;
중 적어도 하나 이상을 식별자로 인식하는 농업용 작업 차량.
According to claim 1,
The processor
A boundary between the ground on the two-dimensional image and a plurality of vertical structures perpendicular to the ground;
A plurality of horizontal structures connecting the plurality of vertical structures; And
A plate-like body on the ground;
Agricultural work vehicle that recognizes at least one of the identifiers.
제1항에 있어서,
상기 식별자는 상기 복수 개의 수평 구조체들을 따라 형성되거나, 상기 복수 개의 수평 구조체들의 말단에 형성되거나, 상기 지면 및 상기 복수 개의 수직 구조체들이 이루는 경계에 형성되거나, 판상 형태로 상기 지면 상에 형성되는 농업용 작업 차량.
According to claim 1,
The identifier is formed along the plurality of horizontal structures, formed at the ends of the plurality of horizontal structures, formed on a boundary formed by the ground and the plurality of vertical structures, or formed in a plate shape on the ground for agricultural work. vehicle.
제1항에 있어서,
상기 식별자는 설정 파장의 빛을 반사 또는 흡수하는 패턴으로 형성되거나, 적어도 2가지 이상의 색상을 포함하는 패턴으로 형성되거나, 설정 파장의 빛을 발광하는 광원을 포함하는 농업용 작업 차량.
According to claim 1,
The identifier is formed in a pattern that reflects or absorbs light of a set wavelength, or is formed in a pattern that includes at least two colors, or agricultural work vehicles comprising a light source that emits light of a set wavelength.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020180158247A 2018-12-10 2018-12-10 Moving body, particularly agricultural working vehicle and system of controlling the same KR102127312B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180158247A KR102127312B1 (en) 2018-12-10 2018-12-10 Moving body, particularly agricultural working vehicle and system of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180158247A KR102127312B1 (en) 2018-12-10 2018-12-10 Moving body, particularly agricultural working vehicle and system of controlling the same

Publications (2)

Publication Number Publication Date
KR20200070755A KR20200070755A (en) 2020-06-18
KR102127312B1 true KR102127312B1 (en) 2020-06-29

Family

ID=71143288

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180158247A KR102127312B1 (en) 2018-12-10 2018-12-10 Moving body, particularly agricultural working vehicle and system of controlling the same

Country Status (1)

Country Link
KR (1) KR102127312B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220027505A (en) 2020-08-27 2022-03-08 한국로봇융합연구원 Driving control device of agricultural robot and Method for the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101197740B1 (en) * 2011-05-25 2012-11-06 에스엘 주식회사 Front side monitoring system
KR101704602B1 (en) * 2015-12-10 2017-02-22 국방과학연구소 Apparatus for displaying guide information of moving mahcine and control method thereof

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110806753B (en) * 2014-02-06 2023-08-29 洋马动力科技有限公司 Parallel travel work system
KR101709402B1 (en) * 2015-07-13 2017-03-08 김구현 Driver Assistance System And Method Thereof
KR101816557B1 (en) 2015-11-06 2018-01-09 대한민국 Robot for farm work and method of controlling the same
KR101748269B1 (en) * 2015-11-11 2017-06-27 현대자동차주식회사 Apparatus and method for automatic steering control in vehicle
KR101982298B1 (en) * 2016-11-24 2019-05-24 고려대학교 산학협력단 Method and apparatus for detecting sudden moving objecj appearance at vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101197740B1 (en) * 2011-05-25 2012-11-06 에스엘 주식회사 Front side monitoring system
KR101704602B1 (en) * 2015-12-10 2017-02-22 국방과학연구소 Apparatus for displaying guide information of moving mahcine and control method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220027505A (en) 2020-08-27 2022-03-08 한국로봇융합연구원 Driving control device of agricultural robot and Method for the same

Also Published As

Publication number Publication date
KR20200070755A (en) 2020-06-18

Similar Documents

Publication Publication Date Title
US11041957B2 (en) Systems and methods for mitigating effects of high-reflectivity objects in LiDAR data
Weiss et al. Plant detection and mapping for agricultural robots using a 3D LIDAR sensor
Reina et al. Ambient awareness for agricultural robotic vehicles
Jackel et al. The DARPA LAGR program: Goals, challenges, methodology, and phase I results
Shalal et al. Orchard mapping and mobile robot localisation using on-board camera and laser scanner data fusion–Part B: Mapping and localisation
JP6533619B2 (en) Sensor calibration system
Barawid Jr et al. Development of an autonomous navigation system using a two-dimensional laser scanner in an orchard application
US10664974B2 (en) System and method for object detection using edge characteristics
Rovira-Más et al. Augmented perception for agricultural robots navigation
Zhang et al. Mapping orchards for autonomous navigation
US11216987B2 (en) Systems and methods for associating LiDAR points with objects
McManus et al. Towards lighting-invariant visual navigation: An appearance-based approach using scanning laser-rangefinders
CN109375629A (en) A kind of cruiser and its barrier-avoiding method that navigates
US20230284550A1 (en) Mobile machine, control unit, data generation unit, method of controlling operation of a mobile machine, and method of generating data
US20230288942A1 (en) Mobile machine, data generation unit, and method of generating data
Fasiolo et al. Towards autonomous mapping in agriculture: A review of supportive technologies for ground robotics
KR102163462B1 (en) Path-finding Robot and Mapping Method Using It
KR102127312B1 (en) Moving body, particularly agricultural working vehicle and system of controlling the same
Hargadine Mobile robot navigation and obstacle avoidance in unstructured outdoor environments
Edlerman et al. Autonomous multi-robot system for use in vineyards and orchards
Luettel et al. Autonomous offroad navigation under poor GPS conditions
Lee et al. Design of Autonomous Driving Algorithms for Fruit harvesting in orchards
EP3312576A1 (en) A photodetector compensating circuit
Libby et al. Accurate GPS-free positioning of utility vehicles for specialty agriculture
Inoue et al. Autonomous Navigation and Obstacle Avoidance in an Orchard Using Machine Vision Techniques for a Robotic Mower

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant