KR102560898B1 - Driving method of smart farm electric vehicle and smart farm electric vehicle therof - Google Patents

Driving method of smart farm electric vehicle and smart farm electric vehicle therof Download PDF

Info

Publication number
KR102560898B1
KR102560898B1 KR1020210007445A KR20210007445A KR102560898B1 KR 102560898 B1 KR102560898 B1 KR 102560898B1 KR 1020210007445 A KR1020210007445 A KR 1020210007445A KR 20210007445 A KR20210007445 A KR 20210007445A KR 102560898 B1 KR102560898 B1 KR 102560898B1
Authority
KR
South Korea
Prior art keywords
movement information
object movement
destination
electric vehicle
starting point
Prior art date
Application number
KR1020210007445A
Other languages
Korean (ko)
Other versions
KR20220104979A (en
Inventor
박승
Original Assignee
에이엠알랩스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에이엠알랩스 주식회사 filed Critical 에이엠알랩스 주식회사
Priority to KR1020210007445A priority Critical patent/KR102560898B1/en
Publication of KR20220104979A publication Critical patent/KR20220104979A/en
Application granted granted Critical
Publication of KR102560898B1 publication Critical patent/KR102560898B1/en

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/12Target-seeking control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2201/00Application
    • G05D2201/02Control of position of land vehicles
    • G05D2201/0201Agriculture or harvesting machine

Abstract

본 발명의 일 실시예는 RGB-D 카메라가 탑재된 스마트팜 전동 차량의 주행 방법에 있어서, 제1 출발지에서 상기 카메라 영상으로부터 추종 대상이 되는 대상객체를 인식하는 단계; 상기 대상객체가 제1 목적지를 향해 이동함에 따라, 상기 대상객체를 추종하면서 이동하는 단계; 상기 대상객체를 추종하는 동안의 상기 제1 출발지에서부터 상기 제1 목적지까지의 위치에 관한 정보인 제1 객체이동정보를 생성하여, DB에 저장하는 단계; 및 상기 제1 출발지에서 상기 제1 목적지로 주행할 것을 요청받으면, 상기 DB에 저장된 복수의 객체이동정보 중에서 상기 제1 객체이동정보를 이용하여 자율적으로 주행하는 단계;를 포함한다. An embodiment of the present invention is a method of driving a smart farm electric vehicle equipped with an RGB-D camera, comprising: recognizing a target object to be followed from the camera image at a first starting point; moving while following the target object as the target object moves toward the first destination; generating first object movement information, which is information about a location from the first starting point to the first destination while tracking the target object, and storing the first object movement information in a DB; and autonomously driving by using the first object movement information among a plurality of object movement information stored in the DB when receiving a request to drive from the first starting point to the first destination.

Description

스마트팜 전동 차량의 주행 방법 및 그 방법이 적용된 스마트팜 전동 차량{DRIVING METHOD OF SMART FARM ELECTRIC VEHICLE AND SMART FARM ELECTRIC VEHICLE THEROF}Driving method of smart farm electric vehicle and smart farm electric vehicle applied with the method {DRIVING METHOD OF SMART FARM ELECTRIC VEHICLE AND SMART FARM ELECTRIC VEHICLE THEROF}

본 발명은 스마트팜에서 운용되는 전동 차량의 주행 방법 및 그 방법이 적용된 스마트팜 전동 차량에 관한 것이다.The present invention relates to a driving method of an electric vehicle operated in a smart farm and a smart farm electric vehicle to which the method is applied.

스마트팜은 농사 기술에 정보통신기술(ICT)을 접목하여 만들어진 지능화된 농장을 의미한다. 구체적으로, 스마트팜은 사물인터넷(IoT: Internet of Things) 기술을 이용하여 농작물 재배 시설의 온도 · 습도 · 햇볕량 · 이산화탄소 · 토양 등을 측정 분석하고, 분석 결과에 따라서 제어 장치를 구동하여 적절한 상태로 변화시킨다. 그리고 스마트폰과 같은 모바일 기기를 통해 원격 관리도 가능하다. 이와 같은 스마트팜으로 농업의 생산 · 유통 · 소비 과정에 걸쳐 생산성과 효율성 및 품질 향상 등과 같은 고부가가치를 창출시킬 수 있다. ICT 기술을 사용하는 농업 방식을 말하므로 노지, 온실, 식물공장 등을 모두 포함하는 개념이다. Smart Farm refers to an intelligent farm created by combining information and communication technology (ICT) with farming technology. Specifically, the smart farm uses Internet of Things (IoT) technology to measure and analyze the temperature, humidity, sunlight, carbon dioxide, soil, etc. of crop cultivation facilities, and drives the control device according to the analysis result to ensure that it is in an appropriate state. change In addition, remote management is possible through a mobile device such as a smartphone. Such a smart farm can create high added value such as productivity, efficiency and quality improvement throughout the agricultural production, distribution and consumption process. Since it refers to an agricultural method using ICT technology, it is a concept that includes all fields, greenhouses, and plant factories.

한편, 스마트팜 전동 차량은 스마트팜에서 사용되는 차량으로, 배터리를 전원으로 이용하는 전동차일 수 있다. 스마트팜 전동 차량은 사람이 탑승하여 운전하거나, 무선장비를 통해 원격에서 조종될 수 있다.On the other hand, a smart farm electric vehicle is a vehicle used in a smart farm, and may be an electric vehicle using a battery as a power source. The smart farm electric vehicle can be driven by a person on board or remotely controlled through wireless equipment.

하지만, 스마트팜 전동 차량이 스마트팜 환경에서 보다 효율적으로 운용되기 위하여는, 인력의 도움없이 스마트팜 내에서 원하는 위치로 이동하면서 스마트팜을 위한 물류를 운송할 수 있어야 한다. 그렇지 않다면, 작업자가 스마트팜 전동 차량에 탑승하거나, 실시간으로 무선장비를 이용해 조종해야 하기 때문이다.However, in order for the smart farm electric vehicle to operate more efficiently in the smart farm environment, it must be able to transport logistics for the smart farm while moving to a desired location within the smart farm without the help of manpower. If not, it is because the worker must board the smart farm electric vehicle or control it using wireless equipment in real time.

따라서, 스마트팜 전동 차량에 사람의 실시간 운전이나 조종이 필요없도록, 자율주행 기능을 적용할 필요성이 대두되고 있다.Therefore, the need to apply autonomous driving functions to smart farm electric vehicles so that real-time driving or manipulation by humans is not required is emerging.

본 발명의 일 실시예는 사람의 실시간 운전이나 조종이 필요없이 자율적으로 주행하도록 하는 스마트팜 전동 차량의 주행 방법 및 그 방법이 적용된 스마트팜 전동 차량을 제공하고자 한다.An embodiment of the present invention is to provide a driving method of a smart farm electric vehicle to autonomously drive without the need for human real-time driving or manipulation, and a smart farm electric vehicle to which the method is applied.

상술한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 스마트팜 전동 차량의 주행 방법은 제1 출발지에서 상기 카메라 영상으로부터 추종 대상이 되는 대상객체를 인식하는 단계; 상기 대상객체가 제1 목적지를 향해 이동함에 따라, 상기 대상객체를 추종하면서 이동하는 단계; 상기 대상객체를 추종하는 동안의 상기 제1 출발지에서부터 상기 제1 목적지까지의 위치에 관한 정보인 제1 객체이동정보를 생성하여, DB에 저장하는 단계; 및 상기 제1 출발지에서 상기 제1 목적지로 주행할 것을 요청받으면, 상기 DB에 저장된 복수의 객체이동정보 중에서 상기 제1 객체이동정보를 이용하여 자율적으로 주행하는 단계;를 포함한다.A driving method of a smart farm electric vehicle according to an embodiment of the present invention for achieving the above object includes recognizing a target object to be followed from the camera image at a first starting point; moving while following the target object as the target object moves toward the first destination; generating first object movement information, which is information about a location from the first starting point to the first destination while tracking the target object, and storing the first object movement information in a DB; and autonomously driving by using the first object movement information among a plurality of object movement information stored in the DB when receiving a request to drive from the first starting point to the first destination.

바람직하게는, 상기 객체이동정보를 생성하여 저장하는 단계는 실내에서 Visual SLAM(VSLAM) 기법에 기반하여 위치를 계산하고, 실외에서 GPS 및 IMU 중 적어도 하나에 기반하여 위치를 계산할 수 있다.Preferably, the step of generating and storing the object movement information may calculate a location based on a Visual SLAM (VSLAM) technique indoors and calculate a location based on at least one of GPS and IMU outdoors.

바람직하게는, 임의의 제2 출발지에서 임의의 제2 목적지로 주행할 것을 요청받으면, 상기 DB에 저장된 복수의 객체이동정보 중에서 상기 제2 출발지 또는 상기 제2 목적지와 관련된 적어도 하나의 객체이동정보를 이용하여 자율적으로 주행하는 단계; 를 더 포함할 수 있다.Preferably, when a request to drive from any second starting point to any second destination is received, at least one object movement information related to the second starting point or the second destination is selected from among a plurality of object movement information stored in the DB. Driving autonomously by using; may further include.

바람직하게는, 상기 적어도 하나의 객체이동정보를 이용하여 자율적으로 주행하는 단계는 상기 복수의 객체이동정보 중에서 상기 제2 출발지 또는 상기 제2 목적지를 지나는 적어도 하나의 후보객체이동정보를 선별하는 단계; 및 상기 적어도 하나의 후보객체이동정보를 이용하여 상기 제2 출발지에서 출발하여, 상기 제2 목적지에 도착하는 경로를 생성하는 단계를 포함할 수 있다.Preferably, the step of autonomously driving using the at least one piece of object movement information includes: selecting at least one candidate object movement information passing through the second starting point or the second destination from among the plurality of object movement information; and generating a route starting from the second source and arriving at the second destination by using the at least one candidate object movement information.

또한, 상술한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 스마트팜 전동 차량은 제1 출발지에서 상기 카메라 영상으로부터 추종 대상이 되는 대상객체를 인식하는 객체인식부; 상기 대상객체가 제1 목적지를 향해 이동함에 따라, 상기 대상객체를 추종하면서 이동하는 객체추종부; 상기 대상객체를 추종하는 동안의 상기 제1 출발지에서부터 상기 제1 목적지까지의 위치에 관한 정보인 제1 객체이동정보를 생성하여, DB에 저장하는 정보생성부; 및 상기 제1 출발지에서 상기 제1 목적지로 주행할 것을 요청받으면, 상기 DB에 저장된 복수의 객체이동정보 중에서 상기 제1 객체이동정보를 이용하여 자율적으로 주행하는 자율주행부;를 포함한다.In addition, the smart farm electric vehicle according to an embodiment of the present invention for achieving the above object includes an object recognition unit for recognizing a target object to be followed from the camera image at the first departure point; an object following unit which moves while following the target object as the target object moves toward the first destination; an information generator for generating first object movement information, which is information about a location from the first starting point to the first destination while tracking the target object, and storing the first object movement information in a DB; and an autonomous driving unit that autonomously drives by using the first object movement information among a plurality of object movement information stored in the DB when receiving a request to drive from the first starting point to the first destination.

바람직하게는, 상기 정보생성부는 실내에서 Visual SLAM(VSLAM) 기법에 기반하여 위치를 계산하고, 실외에서 GPS 및 IMU 중 적어도 하나에 기반하여 위치를 계산할 수 있다.Preferably, the information generating unit may calculate a location based on a Visual SLAM (VSLAM) technique indoors and calculate a location based on at least one of GPS and IMU outdoors.

바람직하게는, 상기 자율주행부는 임의의 제2 출발지에서 임의의 제2 목적지로 주행할 것을 요청받으면, 상기 DB에 저장된 복수의 객체이동정보 중에서 상기 제2 출발지 또는 상기 제2 목적지와 관련된 적어도 하나의 객체이동정보를 이용하여 자율적으로 주행할 수 있다.Preferably, when the autonomous driving unit is requested to drive from any second starting point to any second destination, at least one of the plurality of object movement information stored in the DB is related to the second starting point or the second destination. It can drive autonomously by using object movement information.

바람직하게는, 상기 자율주행부는 상기 적어도 하나의 객체이동정보를 이용하여 자율적으로 주행할 때, 상기 복수의 객체이동정보 중에서 상기 제2 출발지 또는 상기 제2 목적지를 지나는 적어도 하나의 후보객체이동정보를 선별하고, 상기 적어도 하나의 후보객체이동정보를 이용하여 상기 제2 출발지에서 출발하여, 상기 제2 목적지에 도착하는 경로를 생성할 수 있다.Preferably, when the autonomous driving unit autonomously travels using the at least one piece of object movement information, at least one candidate object movement information passing through the second starting point or the second destination is selected from among the plurality of object movement information. Then, a route starting from the second source and arriving at the second destination may be generated using the at least one candidate object movement information.

본 발명의 일 실시예는 스마트팜의 내부에서 사람의 실시간 운전이나 조종이 필요없이 학습된 구간을 자율적으로 주행할 수 있는 효과가 있다.One embodiment of the present invention has the effect of autonomously driving the learned section without the need for real-time driving or manipulation of a person inside the smart farm.

도 1은 본 발명의 일 실시예에 따른 스마트팜 전동 차량의 주행 방법을 설명하기 위한 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 적어도 하나의 객체이동정보를 이용하는 자율 주행 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 스마트팜 전동 차량을 설명하기 위한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 객체이동정보의 생성 과정을 설명하기 위한 흐름도이다.
1 is a flowchart for explaining a driving method of a smart farm electric vehicle according to an embodiment of the present invention.
2 is a flowchart illustrating an autonomous driving method using at least one piece of object movement information according to an embodiment of the present invention.
3 is a block diagram for explaining a smart farm electric vehicle according to an embodiment of the present invention.
4 is a flowchart illustrating a process of generating object movement information according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면을 참조하여 상세하게 설명하도록 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present invention can have various changes and various embodiments, specific embodiments will be described in detail with reference to the drawings. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, or substitutes included in the spirit and technical scope of the present invention. Like reference numerals have been used for like elements throughout the description of each figure.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재 항목들의 조합 또는 복수의 관련된 기재 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The term and/or includes a combination of a plurality of related items or any one of a plurality of related items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급될 때에는 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It should be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. something to do. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't

명세서 및 청구범위 전체에서, 어떤 부분이 어떤 구성 요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있다는 것을 의미한다.Throughout the specification and claims, when a part includes a certain component, it means that it may further include other components, not excluding other components unless otherwise stated.

이하, 첨부된 도면을 참조하여 본 발명에 대해 설명한다.Hereinafter, the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 스마트팜 전동 차량의 주행 방법을 설명하기 위한 흐름도이다.1 is a flowchart for explaining a driving method of a smart farm electric vehicle according to an embodiment of the present invention.

여기서, 스마트팜 전동 차량은 RGB-D카메라를 탑재하여 차량 주변의 환경에 대한 영상정보 및 깊이값정보를 획득할 수 있다.Here, the smart farm electric vehicle can acquire image information and depth value information about the environment around the vehicle by mounting an RGB-D camera.

단계 S110에서는, 스마트팜 전동 차량이 제1 출발지에서 카메라 영상으로부터 추종 대상이 되는 대상객체를 인식한다.In step S110, the smart farm electric vehicle recognizes a target object to be followed from the camera image at the first departure point.

이때, 스마트팜 전동 차량은 프로세서와 메모리를 포함하는 컴퓨팅 장치를 포함할 수 있으며, 이 컴퓨팅 장치는 ROS(robot operating system)로 운영될 수 있다. 또한, 스마트팜 전동 차량은 YOLO(You Only Look Once), SSD(Single Shot Detector), R-CNN(Region-based Convolutional Neural Networks)등의 딥러닝 모델을 이용해 카메라 영상에서 대상객체를 인식할 수 있다.At this time, the smart farm electric vehicle may include a computing device including a processor and memory, and the computing device may be operated as a robot operating system (ROS). In addition, smart farm electric vehicles can recognize target objects from camera images using deep learning models such as YOLO (You Only Look Once), SSD (Single Shot Detector), and R-CNN (Region-based Convolutional Neural Networks). .

예컨대, 스마트팜 전동 차량은 RGB-D 카메라 영상에서 사람을 대상객체로 인식하고, 사용자에 의해 그 인식된 사람을 화면에서 마우스 또는 화면터치로 선택받는 등의 방법으로 대상객체를 인식할 수 있다. For example, a smart farm electric vehicle recognizes a person as a target object in an RGB-D camera image, and the user selects the recognized person on the screen with a mouse or screen touch.

또한, 스마트팜 전동 차량은 사용자로부터 스마트팜내 지도의 위치를 출발지로 입력받을 수 있다. 보다 구체적으로, 화면상의 지도상에서 직접 입력받거나, 기존에 등록된 지점 중에서 선택을 입력받을 수 있다.In addition, the smart farm electric vehicle can receive the location of the map in the smart farm as the starting point from the user. More specifically, an input may be received directly on a map on the screen or a selection may be input from previously registered points.

단계 S120에서는, 스마트팜 전동 차량이 그 대상객체가 제1 목적지를 향해 이동함에 따라, 그 대상객체를 추종하면서 이동한다.In step S120, the smart farm electric vehicle moves while following the target object as the target object moves toward the first destination.

예컨대, 스마트팜 전동 차량은 RGB-D 카메라 영상에서 그 대상객체의 위치가 미리 지정된 영역에 표시되도록 지속적으로 그 대상객체를 추종할 수 있다. 이때, 그 대상객체는 스마트팜 전동 차량에게 경로를 학습시키기 위한 사람일 수 있으며, 사람은 스마트팜 전동 차량의 운행이 필요한 경로인 제1 출발지에서, 제1 목적지까지 이동하면서 스마트팜 전동 차량이 계속하여 그 대상객체를 추종하도록 할 수 있다. 바람직하게는, 대상객체는 스마트팜 전동 차량이 운행하기에 적합한 길 또는 도로로 이동할 수 있다.For example, the smart farm electric vehicle can continuously follow the target object so that the location of the target object is displayed in a pre-designated area in the RGB-D camera image. At this time, the target object may be a person for learning the path to the smart farm electric vehicle, and the person moves from the first departure point, which is the route that requires the operation of the smart farm electric vehicle, to the first destination, while the smart farm electric vehicle continues. so that the target object can be followed. Preferably, the target object can move to a road or road suitable for smart farm electric vehicles to run.

단계 S130에서는, 스마트팜 전동 차량이 그 대상객체를 추종하는 동안의 제1 출발지에서부터 제1 목적지까지의 위치에 관한 정보인 제1 객체이동정보를 생성하여, DB에 저장한다.In step S130, first object movement information, which is information about the location from the first departure point to the first destination while the smart farm electric vehicle follows the target object, is generated and stored in the DB.

즉, 스마트팜 전동 차량은 그 대상객체를 추종하는 동안 거쳐가는 지점에 관한 정보인 제1 객체이동정보를 생성할 수 있다. 즉, 제1 객체이동정보는 제1 출발지라는 시작지점과, 제1 목적지라는 종료지점의 위치(좌표)뿐만 아니라 그 사이에 거쳐가는 여러 지점의 위치(좌표)에 관한 정보를 포함할 수 있다.That is, the smart farm electric vehicle can generate first object movement information, which is information about a point it passes through while following the target object. That is, the first object movement information may include information on the locations (coordinates) of the starting point, which is the first departure point, and the ending point, which is the first destination, as well as the locations (coordinates) of various points passing therebetween.

또한, 스마트팜 전동 차량은 제1 객체이동정보를 DB에 저장하여 추후에 이를 자율주행에 활용토록 할 수 있다.In addition, the smart farm electric vehicle can store the first object movement information in the DB so that it can be used for autonomous driving later.

다른 실시예에서는, 스마트팜 전동 차량이 실내에서 Visual SLAM(VSLAM) 기법에 기반하여 위치를 계산하고, 실외에서 GPS 및 IMU 중 적어도 하나에 기반하여 위치를 계산할 수 있다.In another embodiment, the smart farm electric vehicle may calculate a location based on Visual SLAM (VSLAM) technique indoors and calculate a location based on at least one of GPS and IMU outdoors.

예컨대, 스마트팜 전동 차량은 실내에서는 VSLAM 기법을 이용하여 차량의 위치를 계산할 수 있다. 보다 구체적으로, 스마트팜 전동 차량은 VSLAM 기법의 적용을 위해 RGB-D 카메라를 이용하여 실내 공간의 3차원 포인트 클라우드 데이터를 생성할 수 있으며, 이로부터 실내 지도를 생성하여, 차량이 공간 상의 물체를 인식하고 회피하도록 할 수 있다. 또한, 스마트팜 전동 차량은 그 실내 지도를 이용하여 차량의 실내 위치를 계산하여 파악할 수 있다. For example, a smart farm electric vehicle can calculate the location of the vehicle indoors using the VSLAM technique. More specifically, the smart farm electric vehicle can generate 3D point cloud data of the indoor space using an RGB-D camera for the application of the VSLAM technique, and an indoor map is generated from this, so that the vehicle can locate objects in the space. can be recognized and avoided. In addition, the smart farm electric vehicle can calculate and grasp the indoor location of the vehicle using the indoor map.

또한, 스마트팜 전동 차량은 실외에서는 GPS(global positioning system) 또는 IMU(Inertial Measurement Unit)를 이용하여 차량의 위치 및 방향을 계산할 수 있다. 즉, 스마트팜 전동 차량은 GPS에서 실시간으로 위치 및 방향을 수신하거나, IMU에 포함된 자이로센서와 가속도센서를 이용하여 위치 및 방향을 계산할 수 있다.In addition, the smart farm electric vehicle can calculate the location and direction of the vehicle outdoors using a global positioning system (GPS) or an inertial measurement unit (IMU). That is, the smart farm electric vehicle can receive the location and direction in real time from GPS, or calculate the location and direction using the gyro sensor and acceleration sensor included in the IMU.

마지막으로 단계 S140에서는, 스마트팜 전동 차량이 제1 출발지에서 제1 목적지로 주행할 것을 요청받으면, DB에 저장된 복수의 객체이동정보 중에서 제1 객체이동정보를 이용하여 자율적으로 주행한다.Finally, in step S140, when the smart farm electric vehicle is requested to travel from the first starting point to the first destination, it autonomously drives using the first object movement information among the plurality of object movement information stored in the DB.

이때, 스마트팜 전동 차량이 제1 출발지에 있던 경우에는, 제1 객체이동정보에 포함된 위치를 지나서 제1 목적지에 도착하도록 차량에 탑재된 전동 모터에 대한 PID 제어를 수행할 수 있다. 보다 구체적으로, 전동 모터의 PID제어를 위한 인코더, 드라이버 및 ROS 연결 모듈이 스마트팜 전동 차량에 탑재될 수 있다.At this time, if the smart farm electric vehicle is in the first starting place, PID control for the electric motor mounted on the vehicle may be performed to arrive at the first destination through the location included in the first object movement information. More specifically, encoders, drivers, and ROS connection modules for PID control of electric motors can be mounted on smart farm electric vehicles.

또한, 스마트팜 전동 차량이 제1 목적지에 있던 경우에는, 우선 제1 목적지에서 제1 출발지로 역방향 이동을 한 후에, 제1 객체이동정보에 포함된 위치를 지나서 제1 목적지에 도착하도록 차량에 탑재된 전동 모터에 대한 PID 제어를 수행할 수 있다. 이때, 역방향 이동은 지나온 경로를 역으로 이동하도록 전동 모터에 대한 PID제어를 수행하는 것으로 이해될 수 있다.In addition, when the smart farm electric vehicle is at the first destination, first, after moving in the reverse direction from the first destination to the first starting point, it is mounted on the vehicle to arrive at the first destination through the location included in the first object movement information. It is possible to perform PID control for an electric motor that has been At this time, the reverse movement may be understood as performing PID control on the electric motor to move backward along the past path.

다른 실시예에서는, 스마트팜 전동 차량이 임의의 제2 출발지에서 임의의 제2 목적지로 주행할 것을 요청받으면, DB에 저장된 복수의 객체이동정보 중에서 제2 출발지 또는 제2 목적지와 관련된 적어도 하나의 객체이동정보를 이용하여 자율적으로 주행할 수 있다.In another embodiment, when the smart farm electric vehicle is requested to drive from any second starting point to any second destination, at least one object related to the second starting point or second destination among a plurality of object movement information stored in the DB It is possible to drive autonomously using movement information.

예컨대, 스마트팜 전동 차량이 사용자로부터 제2 출발지에서 출발하여 제2 목적지에 도착하는 주행을 요청받는 경우, 스마트팜 전동 차량은 제2 출발지를 지나는 객체이동정보를 수집하고, 제2 목적지를 지나는 객체이동정보를 수집할 수 있다. 그리고, 스마트팜 전동 차량은 그 적어도 하나의 객체이동정보를 이용하여 자율적으로 주행할 수 있다.For example, when a smart farm electric vehicle is requested to drive from a second starting point to a second destination from a user, the smart farm electric vehicle collects object movement information passing through the second starting point, and objects passing through the second destination Movement information can be collected. And, the smart farm electric vehicle can drive autonomously using the at least one object movement information.

이에 대한 구체적인 내용은 도 2에 대한 설명에서 자세하게 설명한다.Details about this will be described in detail in the description of FIG. 2 .

도 2는 본 발명의 일 실시예에 따른 적어도 하나의 객체이동정보를 이용하는 자율 주행 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating an autonomous driving method using at least one piece of object movement information according to an embodiment of the present invention.

단계 S210에서는, 스마트팜 전동 차량이 그 복수의 객체이동정보 중에서 제2 출발지 또는 제2 목적지를 지나는 적어도 하나의 후보객체이동정보를 선별한다.In step S210, the smart farm electric vehicle selects at least one candidate object movement information passing through the second starting point or the second destination from among the plurality of object movement information.

즉, 스마트팜 전동 차량은 DB에 저장된 복수의 객체이동정보 중에서 제2 출발지를 지나거나, 제2 목적지를 지나는 적어도 하나의 후보객체이동정보를 선별할 수 있다. 이때, 제2 출발지가 반드시 출발지일 필요는 없으며, 제2 목적지가 반드시 목적지일 필요는 없다.That is, the smart farm electric vehicle can select at least one candidate object movement information passing through the second starting point or passing through the second destination among a plurality of object movement information stored in the DB. In this case, the second starting point does not necessarily have to be the starting point, and the second destination does not necessarily have to be the destination.

예컨대, 스마트팜 전동 차량은 도 4를 참조하면, A지점(402)에서 출발하여 제2 출발지(404, B지점)로 이동하는 제1 후보객체이동정보와, B지점(404)을 출발하여 C지점(406)으로 이동하는 제2 후보객체이동정보와, C지점(406)을 출발하여 제2 목적지(408, F지점)로 이동하는 제3 후보객체이동정보를 선별할 수 있다.For example, referring to FIG. 4, the smart farm electric vehicle starts at point A 402 and moves to the second starting point 404 (point B), and the first candidate object movement information starts at point B 404 and moves to C Second candidate object movement information moving to the point 406 and third candidate object movement information moving from point C 406 to the second destination 408 (point F) may be selected.

마지막으로 단계 S220에서는, 스마트팜 전동 차량이 그 적어도 하나의 후보객체이동정보를 이용하여 제2 출발지에서 출발하여, 제2 목적지에 도착하는 경로를 생성한다.Finally, in step S220, the smart farm electric vehicle uses the at least one candidate object movement information to create a route starting from the second starting point and arriving at the second destination.

예컨대, 스마트팜 전동 차량은 앞서 설명한 제1, 제2 및 제3 후보객체이동정보를 이용하여 제2 출발지에서 출발하여 제2 목적지에 도착하는 경로를 생성하여, 그 경로를 자율주행할 수 있다.For example, the smart farm electric vehicle can create a route from the second starting point to the second destination using the first, second, and third candidate object movement information described above, and autonomously drive the route.

보다 구체적으로, 스마트팜 전동 차량은 제2 후보객체이동정보에서 B지점(제1 출발지)에서부터 C지점까지의 구간, 제3 후보객체이동정보에서 C지점에서부터 D지점(제2 목적지)까지의 구간에 대한 위치의 정보를 추출할 수 있다. 그리고, 스마트팜 전동 차량은 그 추출된 정보를 조합하여 제2 출발지에서 출발하여 제2 목적지에 도착하는 경로를 생성할 수 있으며, 그 경로를 따라 자율주행할 수 있다.More specifically, the smart farm electric vehicle is a section from point B (first starting point) to point C in the second candidate object movement information, and a section from point C to point D (second destination) in the third candidate object movement information. It is possible to extract information about the location of . Then, the smart farm electric vehicle can create a route from the second starting point to the second destination by combining the extracted information, and can autonomously drive along the route.

이처럼, 본 발명의 일 실시예에 따른 스마트팜 전동 차량은 기존에 차량이 운행되어 객체이동정보를 확보한 경로에 포함된 지점에 관하여는 DB에 저장된 정보를 이용하여 자율주행이 가능하도록 할 수 있는 효과가 있다.As such, the smart farm electric vehicle according to an embodiment of the present invention can enable autonomous driving using information stored in the DB for points included in the route where the vehicle has been previously operated and object movement information has been secured. It works.

도 3은 본 발명의 일 실시예에 따른 스마트팜 전동 차량을 설명하기 위한 블록도이다.3 is a block diagram for explaining a smart farm electric vehicle according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 스마트팜 전동 차량(300)은 객체인식부(310), 객체추종부(320), 정보생성부(330) 및 자율주행부(340)를 포함한다.Referring to FIG. 3, the smart farm electric vehicle 300 according to an embodiment of the present invention includes an object recognition unit 310, an object following unit 320, an information generation unit 330, and an autonomous driving unit 340. include

객체인식부(310)는 제1 출발지에서 카메라 영상으로부터 추종 대상이 되는 대상객체를 인식한다.The object recognizing unit 310 recognizes a target object to be followed from the camera image at the first starting point.

객체추종부(320)는 대상객체가 제1 목적지를 향해 이동함에 따라, 그 대상객체를 추종하면서 이동시킨다.As the target object moves toward the first destination, the object follower 320 follows and moves the target object.

정보생성부(330)는 그 대상객체를 추종하는 동안의 제1 출발지에서부터 제1 목적지까지의 위치에 관한 정보인 제1 객체이동정보를 생성하여, DB에 저장한다. The information generating unit 330 generates first object movement information, which is information about the location from the first starting point to the first destination while tracking the target object, and stores it in a DB.

마지막으로 자율주행부(340)는 제1 출발지에서 제1 목적지로 주행할 것을 요청받으면, DB에 저장된 복수의 객체이동정보 중에서 제1 객체이동정보를 이용하여 자율적으로 주행한다.Finally, when the autonomous driving unit 340 is requested to drive from the first starting point to the first destination, it autonomously drives by using the first object movement information among a plurality of object movement information stored in the DB.

다른 실시예에서는, 정보생성부(330)는 실내에서 Visual SLAM(VSLAM) 기법에 기반하여 위치를 계산하고, 실외에서 GPS 및 IMU 중 적어도 하나에 기반하여 위치를 계산할 수 있다.In another embodiment, the information generating unit 330 may calculate a location based on a Visual SLAM (VSLAM) technique indoors and calculate a location based on at least one of GPS and IMU outdoors.

또 다른 실시예에서는, 자율주행부(340)는 임의의 제2 출발지에서 임의의 제2 목적지로 주행할 것을 요청받으면, DB에 저장된 복수의 객체이동정보 중에서 제2 출발지 또는 제2 목적지와 관련된 적어도 하나의 객체이동정보를 이용하여 자율적으로 주행할 수 있다.In another embodiment, when the autonomous driving unit 340 receives a request to drive from a second starting point to a second destination, at least one of the plurality of object movement information stored in the DB is related to the second starting point or the second destination. It can drive autonomously by using one object movement information.

또 다른 실시예에서는, 자율주행부(340)는 적어도 하나의 객체이동정보를 이용하여 자율적으로 주행할 때, 그 복수의 객체이동정보 중에서 제2 출발지 또는 제2 목적지를 지나는 적어도 하나의 후보객체이동정보를 선별하고, 그 적어도 하나의 후보객체이동정보를 이용하여 제2 출발지에서 출발하여, 제2 목적지에 도착하는 경로를 생성할 수 있다.In another embodiment, when the autonomous driving unit 340 autonomously drives using at least one object movement information, at least one candidate object movement passing through the second starting point or the second destination among the plurality of object movement information Information may be selected, and a route starting from the second starting point and arriving at the second destination may be created using the at least one candidate object movement information.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 사람이라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 실행된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an example of the technical idea of the present invention, and various modifications and variations can be made to those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments implemented in the present invention are not intended to limit the technical idea of the present invention, but to explain, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed according to the claims below, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

Claims (8)

RGB-D 카메라가 탑재된 스마트팜 전동 차량의 주행 방법에 있어서,
제1 출발지에서 상기 카메라 영상으로부터 추종 대상이 되는 대상객체를 인식하는 단계;
상기 대상객체가 제1 목적지를 향해 이동함에 따라, 상기 대상객체를 추종하면서 이동하는 단계;
상기 대상객체를 추종하는 동안의 상기 제1 출발지에서부터 상기 제1 목적지까지의 위치에 관한 정보인 제1 객체이동정보를 생성하여, DB에 저장하는 단계; 및
상기 제1 출발지에서 상기 제1 목적지로 주행할 것을 요청받으면, 상기 DB에 저장된 복수의 객체이동정보 중에서 상기 제1 객체이동정보를 이용하여 자율적으로 주행하는 단계;
를 포함하고,
임의의 제2 출발지에서 임의의 제2 목적지로 주행할 것을 요청받으면, 상기 DB에 저장된 복수의 객체이동정보 중에서 상기 제2 출발지 또는 상기 제2 목적지와 관련된 적어도 하나의 객체이동정보를 이용하여 자율적으로 주행하는 단계;
를 더 포함하며,
상기 적어도 하나의 객체이동정보를 이용하여 자율적으로 주행하는 단계는
상기 복수의 객체이동정보 중에서 상기 제2 출발지 또는 상기 제2 목적지를 지나는 적어도 하나의 후보객체이동정보를 선별하는 단계; 및
상기 적어도 하나의 후보객체이동정보를 이용하여 상기 제2 출발지에서 출발하여, 상기 제2 목적지에 도착하는 경로를 생성하는 단계;
를 포함하는 것을 특징으로 하는 스마트팜 전동 차량의 주행 방법.
In the driving method of a smart farm electric vehicle equipped with an RGB-D camera,
Recognizing a target object to be followed from the camera image at a first starting point;
moving while following the target object as the target object moves toward the first destination;
generating first object movement information, which is information about a location from the first starting point to the first destination while tracking the target object, and storing the first object movement information in a DB; and
autonomously driving by using the first object movement information among a plurality of object movement information stored in the DB when receiving a request to drive from the first starting point to the first destination;
including,
When a request to drive from an arbitrary second starting point to an arbitrary second destination is received, autonomously using at least one object movement information related to the second starting point or the second destination among a plurality of object movement information stored in the DB. driving;
Including more,
The step of autonomously traveling using the at least one object movement information
selecting at least one candidate object movement information passing through the second departure point or the second destination from among the plurality of object movement information; and
generating a route starting from the second source and arriving at the second destination by using the at least one candidate object movement information;
Driving method of a smart farm electric vehicle comprising a.
제1항에 있어서,
상기 객체이동정보를 생성하여 저장하는 단계는
실내에서 Visual SLAM(VSLAM) 기법에 기반하여 위치를 계산하고, 실외에서 GPS 및 IMU 중 적어도 하나에 기반하여 위치를 계산하는 것을 특징으로 하는 스마트팜 전동 차량의 주행 방법.
According to claim 1,
The step of generating and storing the object movement information
A method of driving a smart farm electric vehicle, characterized in that the position is calculated based on the Visual SLAM (VSLAM) technique indoors and the position is calculated based on at least one of GPS and IMU outdoors.
삭제delete 삭제delete RGB-D 카메라가 탑재된 스마트팜 전동 차량에 있어서,
제1 출발지에서 상기 카메라 영상으로부터 추종 대상이 되는 대상객체를 인식하는 객체인식부;
상기 대상객체가 제1 목적지를 향해 이동함에 따라, 상기 대상객체를 추종하면서 이동하는 객체추종부;
상기 대상객체를 추종하는 동안의 상기 제1 출발지에서부터 상기 제1 목적지까지의 위치에 관한 정보인 제1 객체이동정보를 생성하여, DB에 저장하는 정보생성부; 및
상기 제1 출발지에서 상기 제1 목적지로 주행할 것을 요청받으면, 상기 DB에 저장된 복수의 객체이동정보 중에서 상기 제1 객체이동정보를 이용하여 자율적으로 주행하는 자율주행부;
를 포함하고,
상기 자율주행부는
임의의 제2 출발지에서 임의의 제2 목적지로 주행할 것을 요청받으면, 상기 DB에 저장된 복수의 객체이동정보 중에서 상기 제2 출발지 또는 상기 제2 목적지와 관련된 적어도 하나의 객체이동정보를 이용하여 자율적으로 주행하며,
상기 적어도 하나의 객체이동정보를 이용하여 자율적으로 주행할 때,
상기 복수의 객체이동정보 중에서 상기 제2 출발지 또는 상기 제2 목적지를 지나는 적어도 하나의 후보객체이동정보를 선별하고,
상기 적어도 하나의 후보객체이동정보를 이용하여 상기 제2 출발지에서 출발하여, 상기 제2 목적지에 도착하는 경로를 생성하는 것을 특징으로 하는 스마트팜 전동 차량.
In a smart farm electric vehicle equipped with an RGB-D camera,
an object recognizing unit recognizing a target object to be followed from the camera image at the first starting point;
an object following unit which moves while following the target object as the target object moves toward the first destination;
an information generator for generating first object movement information, which is information about a location from the first starting point to the first destination while tracking the target object, and storing the first object movement information in a DB; and
an autonomous driving unit autonomously driving by using the first object movement information among a plurality of object movement information stored in the DB when receiving a request to drive from the first starting point to the first destination;
including,
The autonomous driving department
When a request to drive from an arbitrary second starting point to an arbitrary second destination is received, autonomously using at least one object movement information related to the second starting point or the second destination among a plurality of object movement information stored in the DB. driving,
When driving autonomously using the at least one object movement information,
Selecting at least one candidate object movement information passing through the second departure point or the second destination from among the plurality of object movement information;
A smart farm electric vehicle, characterized in that for generating a route starting from the second starting point and arriving at the second destination using the at least one candidate object movement information.
제5항에 있어서,
상기 정보생성부는
실내에서 Visual SLAM(VSLAM) 기법에 기반하여 위치를 계산하고, 실외에서 GPS 및 IMU 중 적어도 하나에 기반하여 위치를 계산하는 것을 특징으로 하는 스마트팜 전동 차량.
According to claim 5,
The information generating unit
A smart farm electric vehicle, characterized in that it calculates the position based on the Visual SLAM (VSLAM) technique indoors and calculates the position based on at least one of GPS and IMU outdoors.
삭제delete 삭제delete
KR1020210007445A 2021-01-19 2021-01-19 Driving method of smart farm electric vehicle and smart farm electric vehicle therof KR102560898B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210007445A KR102560898B1 (en) 2021-01-19 2021-01-19 Driving method of smart farm electric vehicle and smart farm electric vehicle therof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210007445A KR102560898B1 (en) 2021-01-19 2021-01-19 Driving method of smart farm electric vehicle and smart farm electric vehicle therof

Publications (2)

Publication Number Publication Date
KR20220104979A KR20220104979A (en) 2022-07-26
KR102560898B1 true KR102560898B1 (en) 2023-07-31

Family

ID=82609558

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210007445A KR102560898B1 (en) 2021-01-19 2021-01-19 Driving method of smart farm electric vehicle and smart farm electric vehicle therof

Country Status (1)

Country Link
KR (1) KR102560898B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101879247B1 (en) * 2017-10-31 2018-08-17 충남대학교산학협력단 The Working Path Setting Method for Automatic Driving Agricultural Machine

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190091714A (en) * 2018-01-29 2019-08-07 한국전자통신연구원 Method and apparatus for autonomous exploring underground cavity area using intelligent unmmaned flying object

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101879247B1 (en) * 2017-10-31 2018-08-17 충남대학교산학협력단 The Working Path Setting Method for Automatic Driving Agricultural Machine

Also Published As

Publication number Publication date
KR20220104979A (en) 2022-07-26

Similar Documents

Publication Publication Date Title
CN107589752B (en) Method and system for realizing cooperative formation of unmanned aerial vehicle and ground robot
Paull et al. Sensor-driven area coverage for an autonomous fixed-wing unmanned aerial vehicle
US10278333B2 (en) Pruning robot system
CN103699126B (en) The guidance method of intelligent guide robot
Boudjit et al. Human detection based on deep learning YOLO-v2 for real-time UAV applications
KR20200093413A (en) Method and device for generating travel paths
CN109708644A (en) Mobile Robotics Navigation method, apparatus and mobile robot
Daftry et al. Robust monocular flight in cluttered outdoor environments
Asadi et al. Building an integrated mobile robotic system for real-time applications in construction
Guzman et al. Robotnik—Professional service robotics applications with ROS
Mansouri et al. Vision-based mav navigation in underground mine using convolutional neural network
CN110260866A (en) A kind of robot localization and barrier-avoiding method of view-based access control model sensor
Puthussery et al. A deep vision landmark framework for robot navigation
CN112991440B (en) Positioning method and device for vehicle, storage medium and electronic device
Choi et al. Improved CNN-based path planning for stairs climbing in autonomous UAV with LiDAR sensor
Fragoso et al. Dynamically feasible motion planning for micro air vehicles using an egocylinder
Tanaka et al. Design of operating software and electrical system of mobile robot for environmental monitoring
KR102560898B1 (en) Driving method of smart farm electric vehicle and smart farm electric vehicle therof
Zhou et al. Autonomous wireless sensor deployment with unmanned aerial vehicles for structural health monitoring applications
Kamat et al. A survey on autonomous navigation techniques
Son et al. The practice of mapping-based navigation system for indoor robot with RPLIDAR and Raspberry Pi
US20210053232A1 (en) Information processing apparatus, information processing method and program
Chen et al. Dynamic visual servo control methods for continuous operation of a fruit harvesting robot working throughout an orchard
CN114571460A (en) Robot control method, device and storage medium
Watthanawisuth et al. Design of mobile robot for real world application in path planning using ZigBee localization

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant