KR20210046501A - unmanned mowing robot and automatic driving method thereof - Google Patents
unmanned mowing robot and automatic driving method thereof Download PDFInfo
- Publication number
- KR20210046501A KR20210046501A KR1020190130286A KR20190130286A KR20210046501A KR 20210046501 A KR20210046501 A KR 20210046501A KR 1020190130286 A KR1020190130286 A KR 1020190130286A KR 20190130286 A KR20190130286 A KR 20190130286A KR 20210046501 A KR20210046501 A KR 20210046501A
- Authority
- KR
- South Korea
- Prior art keywords
- landmark
- value
- angle value
- unmanned
- image
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000004364 calculation method Methods 0.000 claims description 40
- 238000009333 weeding Methods 0.000 claims description 14
- 230000033001 locomotion Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01D—HARVESTING; MOWING
- A01D34/00—Mowers; Mowing apparatus of harvesters
- A01D34/006—Control or measuring arrangements
- A01D34/008—Control or measuring arrangements for automated or remotely controlled operation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G05D2201/0208—
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Remote Sensing (AREA)
- Environmental Sciences (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Guiding Agricultural Machines (AREA)
- Harvester Elements (AREA)
Abstract
Description
본 발명은 무인 잔디 깎기 로봇에 관한 것으로, 상세하게는 무인 잔디 깎기 로봇의 자율 주행 기술에 관한 것이다.The present invention relates to an unmanned lawn mower robot, and more particularly, to an autonomous driving technology of an unmanned lawn mower robot.
'10-2004-0013116'를 출원번호로 하는 종래 문헌에서는 좌우 독립한 무단변속장치를 가지고, 좌우 한 쌍의 조향 레버를 전/후 방향으로 조작하여 이들의 무단변속장치를 각기 별도로 작동시키고, 기체를 전후진시켜, 혹은 한 방향을 역회전시켜서 그 자리에서 선회를 행할 수 있도록 한 승용 잔디 깎기 기계를 개시하고 있다. In the conventional literature, which is '10-2004-0013116' as the application number, the left and right independent continuously variable transmissions are operated, and a pair of left and right steering levers are operated in the front/rear direction to operate these continuously variable transmissions separately. A lawnmower for passenger use is disclosed in which a lawnmower for passenger use can be made to move forward or backward or rotate in one direction to perform a turn on the spot.
이러한 종래 문헌은 수동 레버 조작을 위한 기계 시스템으로서, 단순 반복되는 제초 작업에서 수동 레버 조작은 불편하고, 비효율적이다. This conventional document is a mechanical system for manual lever operation, and manual lever operation is inconvenient and inefficient in simple repeated weeding operations.
최근 이러한 수동 레버 조작 방식의 잔디 깎기 기계의 불편함을 해소하기 위해 무인 잔디 깎기 로봇에 대한 연구가 활발히 진행되고 있다.Recently, research on an unmanned lawn mower robot has been actively conducted in order to solve the inconvenience of such a manual lever-operated lawn mower.
무인 잔디 깎기 로봇은 기본적으로 자율 주행이 가능 해야 한다. 이러한 자율 주행을 위해, 제초 작업을 진행하고자 하는 작업 공간을 인식하고, 그 인식한 작업 공간 내에서 자신의 위치를 추정하고, 이러한 위치 추정을 기반으로 자율 주행을 위한 최적의 주행 경로를 찾아야 한다. The unmanned lawnmower robot should basically be capable of autonomous driving. For such autonomous driving, it is necessary to recognize a work space in which weeding is to be performed, estimate one's position within the recognized work space, and find an optimal driving route for autonomous driving based on this position estimation.
기존의 무인 잔디 깎기 로봇은, 작업 공간 인식 및 최적의 주행 경로 설정을 위해, 주변 환경 정보를 인식하는 데, 먼저, 일정한 형태를 갖는 복수의 랜드 마크를 작업하고자 하는 공간의 모서리에 간단히 놓아두고, 무인 잔디 깎기 로봇에 탑재된 센서(예를 들면, 레이다 장치)가 랜드 마크를 인식하는 방식으로 작업 공간을 스스로 인식하고, 최적의 주행 경로를 스스로 설정한다.The existing unmanned lawnmower robot recognizes surrounding environment information to recognize a work space and set an optimal driving route. First, a plurality of landmarks having a certain shape are simply placed at the corners of the space to be worked. A sensor (for example, a radar device) mounted on an unmanned lawnmower robot recognizes a work space by itself in a manner that recognizes a landmark, and sets an optimal driving route by itself.
한편, 기존의 랜드 마크는 일반적으로 일정한 크기의 판 형상을 갖는데, 그 크기(면적)가 큰 경우, 레이다 신호가 반사할 때, 횡 방향 오차(또는 종 방향 오차)로 인해 작업 공간 내의 위치 추정에 어려움이 있을 수 있다. 이러한 횡 방향 오차를 줄이기 위해, 랜드 마크의 크기를 작게 제작하는 것도 한계가 있다. On the other hand, conventional landmarks generally have a plate shape of a certain size. If the size (area) is large, when the radar signal reflects, it is difficult to estimate the position in the work space due to a lateral error (or a longitudinal error). There may be difficulties. In order to reduce such lateral error, there is also a limit to making the size of the landmark small.
본 발명은 랜드 마크의 크기에 따른 횡 방향 오차를 보정하여 최적의 주행 경로를 설정할 수 있는 무인 잔디 깎기 로봇의 자율 주행을 위한 제어 장치 및 그 제어 방법을 제공하는 데 목적이 있다.An object of the present invention is to provide a control device for autonomous driving of an unmanned lawnmower that can set an optimal driving route by correcting a lateral error according to the size of a landmark, and a control method thereof.
또한, 본 발명은 설정된 최적의 주행 경로를 기반으로 하는 자율 주행이 가능한 무인 잔디 깎기 로봇을 제공한다.In addition, the present invention provides an unmanned lawn mower robot capable of autonomous driving based on a set optimal driving route.
본 발명의 목적은 상기된 바와 같은 목적으로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.The object of the present invention is not limited to the object as described above, and other technical problems may exist.
상술한 목적을 달성하기 위한 본 발명의 일면에 따른 무인 잔디 깎기 로봇의 구동 방법은 레이더 센서가, 작업 공간을 정의하는 랜드 마크로 송신한 레이더 신호의 반사 신호로부터 거리 값 및 각도 값을 획득하는 단계; 카메라 센서가, 상기 랜드 마크를 촬영하여 이미지를 획득하는 단계; 경로 산출부가, 상기 레이더 센서로부터 입력된 상기 거리 값 및 각도 값 중에서 상기 각도 값을 상기 카메라 센서로부터 입력된 상기 이미지를 이용하여 보정하고, 상기 거리 값과 상기 보정된 각도 값을 이용하여 상기 작업 공간 내에서의 주행 경로를 산출하는 단계; 및 구동 장치가, 상기 산출된 주행 경로에 따라 무인 잔디 깎기 로봇을 구동시키는 단계를 포함한다.A driving method of an unmanned lawn mower robot according to an aspect of the present invention for achieving the above object includes: obtaining, by a radar sensor, a distance value and an angle value from a reflection signal of a radar signal transmitted to a landmark defining a working space; Obtaining an image by photographing the landmark by a camera sensor; The path calculation unit corrects the angle value from the distance value and the angle value input from the radar sensor using the image input from the camera sensor, and uses the distance value and the corrected angle value to the work space. Calculating a driving route within the vehicle; And driving, by the driving device, the unmanned lawn mower robot according to the calculated travel path.
본 발명의 다른 일면에 따른 무인 잔디 깎기 로봇은 주행 경로를 산출하는 경로 산출 장치와 상기 산출된 주행 경로에 따라 무인 잔디 깎기 로봇의 자율 주행을 구동시키는 구동 장치를 포함하고, 상기 경로 산출 장치는, 작업 공간을 정의하는 랜드 마크로 송신한 레이더 신호의 반사 신호로부터 거리 값 및 각도 값을 획득하는 레이더 센서; 상기 랜드 마크를 촬영하여 이미지를 획득하는 카메라 센서; 및 상기 레이더 센서로부터 입력된 상기 거리 값 및 각도 값 중에서 상기 각도 값을 상기 카메라 센서로부터 입력된 상기 이미지를 이용하여 보정하고, 상기 거리 값과 상기 보정된 각도 값을 이용하여 상기 작업 공간 내에서의 상기 주행 경로를 산출하는 경로 산출부를 포함한다. An unmanned lawnmower robot according to another aspect of the present invention includes a route calculating device for calculating a travel path and a driving device for driving autonomous driving of the unmanned lawnmower robot according to the calculated travel path, and the route calculating device, A radar sensor that obtains a distance value and an angle value from a reflected signal of a radar signal transmitted to a landmark defining a working space; A camera sensor that captures the landmark and acquires an image; And correcting the angle value from the distance value and angle value input from the radar sensor using the image input from the camera sensor, and using the distance value and the corrected angle value in the working space. And a route calculation unit that calculates the travel route.
본 발명의 또 다른 일면에 따른 자율 주행이 가능한 무인 잔디 깎기 로봇의 경로 설정 방법은, 레이더 센서가, 랜드 마크로 송신한 레이더 신호의 반사 신호로부터 거리 값 및 각도 값을 획득하는 단계; 카메라 센서가, 상기 랜드 마크를 촬영하여 이미지를 획득하는 단계; 경로 산출부가, 상기 각도 값을 상기 이미지를 이용하여 보정하는 단계; 상기 경로 산출부가, 상기 거리 값과 상기 보정된 각도 값을 기반으로 복수의 랜드 마크 중에서 타겟 랜드 마크를 선택하는 단계; 상기 경로 산출부가, 상기 선택된 타겟 랜드 마크를 추종하는 주행 경로를 생성하는 단계; 및 상기 경로 산출부가, 상기 주행 경로에 대응하는 목표 속도값과 목표 자세각을 산출하는 단계를 포함한다.According to another aspect of the present invention, a method for setting a path of an unmanned lawnmower robot capable of autonomous driving includes: obtaining, by a radar sensor, a distance value and an angle value from a reflected signal of a radar signal transmitted to a landmark; Obtaining an image by photographing the landmark by a camera sensor; Correcting, by a path calculator, the angle value using the image; Selecting, by the route calculator, a target landmark from among a plurality of landmarks based on the distance value and the corrected angle value; Generating, by the route calculator, a traveling route following the selected target landmark; And calculating, by the route calculating unit, a target speed value and a target attitude angle corresponding to the traveling route.
본 발명에 따르면, 본 발명에 따른 무인 잔디 깎기 로봇의 경로 설정 방법에 따르면, 랜드 마크를 원하는 작업 공간의 모서리에 놓음으로써, 간편한 작업 공간 설정이 가능하다. 또한, 잔디 깎기 로봇의 제초 너비보다 단위간격이 작은 격자 간격으로 작업공간을 구획하여, 주행 경로를 산출하기 때문에, 빈틈없는 제초가 가능하다. 또한, 실시간으로 랜드 마크를 참조하여, 위치추적을 수행하기 때문에, GPS 및 자체 센서들만을 이용하여 위치추적을 수행하는 경우보다, 정확하고 딜레이가 적으며, 주행 경로의 미세한 오차가 발생하여도 이를 실시간으로 보정하는 것이 가능하다.According to the present invention, according to the route setting method of the unmanned lawnmower robot according to the present invention, by placing the landmark at the corner of the desired work space, it is possible to easily set the work space. In addition, since the working space is divided into grid intervals with a unit interval smaller than the weeding width of the lawnmower robot, and the travel path is calculated, tight weeding is possible. In addition, since it performs location tracking by referring to landmarks in real time, it is more accurate and less delayed than when location tracking is performed using only GPS and its own sensors. It is possible to correct in real time.
또한, 본 발명은 레버로 조작되는 엔진 구동식 잔디 깎기 기계의 자동 구동 및 자동 조향 제어가 가능함에 따라 자동 운전으로 제초 작업을 진행할 수 있고, 반복 작업이 필요한 작업 공간에서 자동 운전으로 제초 작업을 진행함으로써, 사용자의 편의성이 높으며, 레버로 조작되는 다양한 기계 장치의 자동 운전 및 자동화 시스템을 구성하여 효율성을 높일 수 있다.In addition, the present invention enables automatic driving and automatic steering control of an engine-driven lawn mower operated with a lever, so that the weeding operation can be performed by automatic operation, and the weeding operation is performed by automatic operation in a work space requiring repetitive operation. By doing so, the user's convenience is high, and efficiency can be increased by configuring an automatic operation and automation system of various mechanical devices operated by levers.
도 1은 본 발명의 실시 예에 따른 무인 잔디 깎기 로봇의 내부 구성을 나타내는 블록도.
도 2 및 3은 본 발명의 실시 예에 따른 랜드 마크의 형상 및 크기를 설명하기 위한 도면들.
도 4는 본 발명의 실시 예에 따른 무인 잔디 깎기 로봇의 주행 경로 설정 과정을 나타내는 순서도.
도 5은 본 발명의 실시 예에 따른 무인 잔디 깎기 로봇의 외관 현상을 도시한 사시도.
도 6은 도 1의 A 부분을 확대한 확대도.
도 7은 도 1 및 2에 도시한 엔진 구동식 잔디 깎기 로봇의 자동 운전을 위한 제어 장치의 블록도.
도 8은 도 3에 도시한 감산기로 입력되는 목표 속도 및 목표 자세각을 설명하기 위한 도면.
도 9는 도 3에 도시한 통합 제어부에서 수행되는 좌우 휠 속도 계산 방법을 설명하기 위한 도면.
도 10은 본 발명의 실시 예에 따른 엔진 구동식 잔디 깎기 로봇의 자율 주행을 위한 제어 방법을 나타내는 순서도.1 is a block diagram showing the internal configuration of an unmanned lawn mower robot according to an embodiment of the present invention.
2 and 3 are views for explaining the shape and size of a landmark according to an embodiment of the present invention.
4 is a flowchart illustrating a process of setting a driving route of the unmanned lawn mower according to an embodiment of the present invention.
5 is a perspective view showing the appearance of the unmanned lawn mower robot according to an embodiment of the present invention.
6 is an enlarged view of an enlarged portion A of FIG. 1.
7 is a block diagram of a control device for automatic driving of the engine-driven lawn mower shown in FIGS. 1 and 2;
FIG. 8 is a diagram for explaining a target speed and a target attitude angle input by the subtractor shown in FIG. 3;
9 is a view for explaining a method for calculating left and right wheel speeds performed by the integrated control unit shown in FIG. 3.
10 is a flowchart illustrating a control method for autonomous driving of an engine-driven lawn mower according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are attached to similar parts throughout the specification.
도 1은 본 발명의 실시 예에 따른 무인 잔디 깎기 로봇의 내부 구성을 나타내는 블록도이다.1 is a block diagram showing an internal configuration of an unmanned lawn mower robot according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시 예에 따른 무인 잔디 깎기 로봇(500)은 경로 설정 장치(50)와 구동 장치(300)를 포함한다.Referring to FIG. 1, an unmanned
경로 설정 장치(50)는 무인 잔디 깎기 로봇(300)의 자율 주행을 위한 최적의 주행 경로를 설정하고, 설정된 주행 경로에 대응하는 목표 속도값(vt)과 목표 자세각(또는 목표 조향각)(θt)를 계산하여 구동 장치(300)로 입력한다.The
구동 장치(300)는 경로 설정 장치(50)에 의해 설정된 최적의 주행 경로(vt, θt)에 따라 자율 주행이 가능하도록 무인 잔디 깎기 로봇(300)을 구동시킨다.The
경로 설정 장치(50)는, 최적의 주행 경로를 설정하기 위해, 레이더 센서(51), 카메라 센서(53) 및 경로 산출부(55)를 포함한다.The
레이더 센서(51)는 랜드 마크(10, Land mark)로 레이더 신호를 송신하여, 상기 레이더 신호가 랜드 마크(10)에 반사되어 생성된 반사 신호를 수신한다. The
레이더 센서(51)는 수신된 반사 신호를 처리하여 랜드 마크(10)의 거리 값(RN)와 각도 값(θN)를 획득하고, 이를 경로 생성부(55)로 입력한다.The
카메라 센서(53)는, 상기 랜드 마크(10)를 촬영하여 상기 랜드 마크(10)가 포함된 이미지를 획득하고, 이를 경로 생성부(55)로 입력한다. The
카메라 센서(53)에 의해 획득된 이미지는 상기 랜드 마크(10)의 크기(너비 또는 폭)에 따라 발생하는 레이더 센서(51)의 횡 방향 오차(이하, '각도 값(θN)의 오차'라 함)를 보정하는데 사용된다. The image acquired by the
경로 산출부(55)는 상기 레이더 센서(51)로부터 입력된 거리 값(RN)과 각도 값(θN)에 대응하는 최적의 주행 경로(vt, θt)를 생성하고, 이를 구동 장치(300)로 입력한다. 여기서, vt는 목표 속도값이고, θt는 목표 자세각(목표 조향각)이다.The
한편, 상기 랜드 마크(10)의 크기가 큰 경우에 레이더 센서(51)의 횡방향 오차에 해당하는 각도(θN) 오차가 발생할 수 있다. On the other hand, when the size of the
레이더 센서(51)의 각도(θN) 오차를 보정하기 위해, 경로 산출부(55)가 카메라 센서(53)로부터 입력된 상기 랜드 마크(10)가 포함된 이미지를 기반으로 상기 각도 값(θN)의 오차를 보정한다. In order to correct the error of the angle (θ N ) of the
구체적으로, 경로 산출부(55)는, 각도 값(θN)의 오차를 보정하기 위해, 우선, 레이더 센서(51)에서 획득한 거리 값과 각도 값(RN, θN)을 카메라 센서에서 획득한 이미지 상에서 나타낼 수 있는 UV좌표(UN, VN)로 변환한다. Specifically, in order to correct the error of the angle value (θ N ), the
이는 레이더 좌표계에서 표현되는 거리 값과 각도 값(RN, θN)을 카메라 센서(53)의 카메라 좌표계에서 표현되는 값으로 변환하는 과정이다. This is a process of converting distance values and angle values (R N , θ N ) expressed in the radar coordinate system into values expressed in the camera coordinate system of the
이러한 좌표계 변환을 위해, 변환 행렬이 이용될 수 있다. 예를 들면, 변환 행렬과 거리 값 및 각도 값(RN, θN)을 행렬 곱셈하여, 이로부터 UV 좌표(UN, VN)를 얻을 수 있다. 변환 행렬에 대한 설명은 잘 알려진 것인 바 이에 대한 상세 설명은 생략하기로 한다.For this coordinate system transformation, a transformation matrix may be used. For example, by multiplying a transformation matrix with a distance value and an angle value (R N , θ N ) by a matrix, UV coordinates (U N , V N ) can be obtained from this. Since a description of the transformation matrix is well known, a detailed description thereof will be omitted.
이어, 경로 산출부(55)는 이미지 상에서 상기 변환된 UV 좌표(UN, VN)를 기준으로 랜드 마크(10)의 중심점(10')을 탐색하고, 중심점(10')이 탐색되면, 탐색된 중심점(10')에 대응하는 UV 좌표(Uc, Vc)와 상기 변환된 UV 좌표(UN, VN) 간의 차이 값(이미지 상의 거리 값)을 이용하여 레이더 센서(51)로부터 획득한 각도 값(θN)의 오차를 보정한다.Subsequently, the
이렇게 함으로써, 상기 랜드 마크(10)의 크기가 큰 경우에 발생하는 레이더 센서(51)의 각도(θN) 오차를 보정할 수 있다.By doing so, it is possible to correct an error of the angle θ N of the
보정된 각도 값을 θN'라 할 때, 경로 산출부(55)는 거리 값(RN)과 보정된 각도 값(θN')을 이용하여 최적의 주행 경로(Vt과 θt)를 다시 계산하여 재생성한다. When the corrected angle value is θ N ', the
한편, 각도 값(θN) 오차의 보정에 의해 다시 계산된 주행 경로(Vt과 θt)는 무인 잔디 깎기 로봇(500)의 전체 작업 공간 내에서 한번만 계산되는 것이 아니라 실시간으로 계산된다. On the other hand, the travel paths V t and θ t recalculated by correction of the angle value θ N error are calculated in real time rather than only once within the entire work space of the
실시간 처리를 위해, 우선, 잔디 깎기 로봇(500)이 작업 공간을 설정한다. For real-time processing, first, the
예를 들면, 복수의 랜드 마크(10)를 작업하고자 하는 작업 공간의 모서리에 설치한 상태에서, 잔디 깎기 로봇(500)이 이동하지 않고, 제자리에서 회전하면서, 카메라 센서(53)가 랜드 마크(10)를 인식한다. 이때, 랜드 마크는 카메라 센서(53)에 의해 식별 가능한 거리 안에 있어야 한다.For example, in a state in which a plurality of
랜드 마크(10)의 인식을 위해, 경로 산출부(55)는 이미지 내에서 객체를 추출하기 위한 배경 제거 알고리즘 및 객체 추출 알고리즘 등을 이용할 수 있으며, 앞에서 언급한 랜드 마크(10)의 중심점(10') 또한 이러한 배경 제거 알고리즘 및 객체 추출 알고리즘을 통해 추출된 랜드 마크 이미지로부터 획득할 수 있다. 예를 들면, 랜드 마크 이미지를 구성하는 UV 좌표들 중 중심점(10')에 해당하는 UV 좌표를 계산한다. For the recognition of the
랜드 마크 이미지가 획득되면, 경로 산출부(55)는 사전에 정의한 랜드 마크 이미지의 크기와 잔디 깎기 로봇(500)으로부터 실제 랜드 마크까지의 거리 관계를 이용하여 전체 작업 공간을 계산하여 설정한다. When the landmark image is acquired, the
여기서 레이더 센서(51)를 이용하여 전제 작업 공간을 설정할 수도 있지만, 카메라 센서(53)에서 획득한 이미지를 이용하여 레이더 센서(51)의 각도(θN) 오차를 보정해야 하므로, 전체 작업 공간은 레이더 센서(51)가 아니라 카메라 센서(53)가 랜드 마크(10)를 인식하여 획득한 이미지를 기반으로 설정되어야 한다. Here, the entire work space may be set using the
즉, 랜드 마크(10)의 인식 가능한 범위는 카메라 센서(53)보다 레이더 센서(51)가 더 넓기 때문에, 레이더 센서(51)가 랜드 마크(10)를 인식하여도 카메라 센서(53)는 랜드 마크(10)를 인식할 수 없는 경우가 있을 수 있다. 이 경우, 카메라 센서(53)에서 랜드 마크를 포함하는 이미지를 획득할 수 없으므로, 레이더 센서(51)의 각도 값(θN) 오차를 보정할 수 없다. That is, since the
그러므로, 작업 공간은 레이더 센서(51)가 아니라 카메라 센서(53)가 랜드 마크를 식별할 수 있는 거리로 제한될 필요가 있다.Therefore, the working space needs to be limited to the distance at which the
이처럼 카메라 센서(53)를 기반으로 전체 작업 공간이 설정되면, 경로 산출부(55)는 전체 작업 공간 내에서, 잔디 깎기 로봇(500)의 제초 너비보다 작은 단위의 격자 간격을 구획하고, 구획된 격잔 간격에서 거리 값(RN)과 보정된 각도 값(θN')에 대응하는 주행 경로(vt, θt), 즉, 목표 속도값(vt) 및 목표 자세각(θt)을 계산한다.In this way, when the entire work space is set based on the
최적의 주행 경로를 산출하는 경로 산출부(55)는 경로 설정과 관련된 연산 처리를 수행하는 프로세서 및 상기 프로세서에 의해 연산 처리된 중간 데이터 및/또는 결과 데이터를 영구적 및/또는 일시적으로 저장하는 메모리를 포함하도록 구성될 수도 있고, 프로세서로만 구현될 수 있다. 경로 생성부(55)가 프로세서로만 구현된 경우, 메모리는 경로 생성부(55)의 외부에 배치될 수 있다.The
한편, 랜드 마크(10)는 일정한 형상 및 크기를 가질 수 있다.Meanwhile, the
도 2 및 3은 본 발명의 실시 예에 따른 랜드 마크의 형상 및 크기를 설명하기 위한 도면들로서, 도 2는 랜드 마크의 정면도이고, 도 3은 랜드 마크의 측면도이다.2 and 3 are views for explaining the shape and size of a landmark according to an embodiment of the present invention, and FIG. 2 is a front view of the landmark, and FIG. 3 is a side view of the landmark.
도 2 및 3을 참조하면, 랜드 마크(10)는 4개의 면으로 이루어진 사면체 형상으로 제작될 수 있으며, 4개의 면 중 어느 한 면은 오프(OPEN)된 구조를 갖는다.2 and 3, the
랜드 마크(10)는 오픈된 한 면이 지면에 수직하도록 지지대(20) 상에 설치된다. 지지대(20)는 랜드 마크(10)의 이동이 가능하도록 바퀴를 갖는다.The
랜드 마크(10)는 최대 반사율을 확보하기 위해 잔디 깎이 로봇(500)의 전방에 부착된 레이다 센서의 높이와 동일한 높이(예를 들면, 1500 mm)로 제작된다.The
랜드 마크(10)는 잔디 깎기 로봇(500)의 작업공간을 최대화하기 위해, 잔디 깎기 로봇(500)의 위치로부터 60m 떨어진 곳에 지정한다. The
최고 60m, Azimuth Field of View 90deg를 확보하기 위해, 랜드 마크(10)의 반사율이 10dB이상이 되어야 하며, 이를 위해 랜드 마크는 2m(2000 mm)의 너비와 사면체 형상(레이더 신호가 랜드 마크의 중심쪽으로 집중되도록)으로 제작한다.In order to secure a maximum of 60m, Azimuth Field of View 90deg, the reflectance of the
도 4는 본 발명의 실시 예에 따른 무인 잔디 깎기 로봇의 주행 경로 설정 과정을 상세히 나타내는 순서도이다. 4 is a flowchart illustrating in detail a process of setting a driving route of the unmanned lawn mower according to an embodiment of the present invention.
도 4를 참조하면, 우선, S511에서, 카메라 센서를 기반으로 작업 공간을 설정한다. 구체적으로, 복수의 랜드 마크(10)를 작업하고자 하는 작업 공간의 모서리에 설치한 상태에서, 잔디 깎기 로봇(500)이 이동하지 않고, 제자리에서 회전하면서, 카메라 센서(53)가 랜드 마크(10)를 촬영하여 상기 랜드 마크(10)를 포함하는 이미지를 획득하고, 이를 경로 산출부(55)로 입력함으로써, 경로 산출부(55)는 상기 랜드 마크(10)를 인식하게 된다. 이때, 랜드 마크(10)는 카메라 센서(53)에 의해 식별 가능한 거리 안에 있어야 한다. 이미지가 획득되면, 경로 산출부(55)는 사전에 정의한 이미지에 포함된 랜드 마크의 크기와 잔디 깎기 로봇(500)으로부터 실제 랜드 마크까지의 거리와의 관계를 이용하여 현재 입력된 이미지에 포함된 랜드 마크의 크기를 기준으로 전체 작업 공간을 계산하여 설정한다. 작업 공간이 설정되면, 경로 산출부(55)는 전체 작업 공간을 잔디 깎기 로봇(500)의 제초 너비보다 작은 단위의 격자 간격을 구획한다.Referring to FIG. 4, first, in S511, a work space is set based on a camera sensor. Specifically, while the plurality of
이어, S513에서, 격자 간격으로 구획된 작업 공간의 설정이 완료되면, 레이더 센서(51)가 랜드 마크(10)로 송신한 레이더 신호에 대한 반사 신호를 수신하고, 그 반사 신호를 처리하여 레이더 센서(51)의 거리 값(RN)과 각도 값(θN)을 획득하고, 이를 경로 산출부(55)로 입력한다.Subsequently, in S513, when the setting of the working space divided by the grid interval is completed, the
이어, S515에서 경로 산출부(55)가 카메라 센서(53)로부터 입력된 이미지를 기반으로 레이더 센서(51)로부터입력된 각도 값(θN)의 오차를 보정하여 랜드 마크(10)의 크기에 따른 횡방향 오차를 보정한다. 구체적으로, 레이더 센서(51)에서 획득한 거리 값과 각도 값(RN, θN)을 카메라 센서(53)에서 획득한 이미지의 UV좌표(UN, VN)로 변환한다. 이어, 이미지 상에서 상기 변환된 UV 좌표(UN, VN)를 기준으로 랜드 마크(10)의 중심점(10')을 탐색하고, 중심점(10')이 탐색되면, 탐색된 중심점(10')에 대응하는 UV 좌표(Uc, Vc)와 상기 변환된 UV 좌표(UN, VN) 간의 차이 값(이미지 상의 거리 값)을 계산하고, 계산된 차이 값을 이용하여 상기 각도 값(θN)을 보정한다. Subsequently, in S515, the path calculation unit 55 corrects the error of the angle value θ N input from the
이어, S517에서, 경로 산출부(55)가 거리 값(RN)과 보정된 각도 값(θN)을 기반으로 복수의 랜드 마크 중에서 타겟 랜드 마크를 선택한다. 각 랜드 마크의 크기 및 설치 위치는 사전에 알고 있는 정보이고, 이를 기반으로, 각 랜드 마크 별로 기준 거리 범위 및 기준 각도 범위를 설정한 후, 레이더 센서(51)로부터 현재 입력된 거리 값(RN)과 보정된 각도 값(θN)이 어떤 기준 거리 범위 및 기준 각도 범위에 속하면, 그 어떤 기준 거리 범위 및 기준 각도 범위로 정의된 랜드 마크를 타겟 랜드 마크로 선택한다.Subsequently, in S517, the
이어, S519에서, 경로 산출부(55)가 선택된 타겟 랜드 마크에 트랙(track) ID를 부여한다.Subsequently, in S519, the
이어, S521에서, 경로 산출부(55)가 트랙(track) ID가 부여된 타겟 랜드 마크를 추종하는 주행 경로(vt, θt)를 작업 공간 내에 구획된 격자 간격 단위로 계산하여 생성한다. Subsequently, in S521, the path calculation unit 55 calculates and generates the travel paths v t and θ t following the target landmark to which the track ID is assigned, in units of grid intervals partitioned in the work space.
이어, S523에서, 경로 산출부(55)가 주행 경로(vt, θt)를 구동 장치(300)로 입력한다.Subsequently, in S523, the
이어, S525에서, 구동 장치(300)가 입력된 주행 경로(vt, θt)에 따라 잔디 깎기 로봇(500)을 구동시켜서 잔디 깎기 로봇(500)의 주행을 시작한다.Subsequently, in S525, the driving
이어, S527에서, 잔디 깎기 로봇(500)이 주행하는 동안 경로 산출부(55)가 타겟 랜드 마크의 변경이 발생한 지를 실시간으로 판단한다. 예를 들면, 레이더 센서(51)로부터 이전에 입력된 거리 값(Ri - 1)과 현재 입력된 거리 값(Ri)의 차이 값(|Ri-1 ━ Ri|)이 제1 임계치(α)보다 작고, 이전에 입력된 각도 값(θi - 1)을 보정한 각도 값(θi -1')과 현재 입력된 각도 값(θi)을 보정한 각도 값(θi')과의 차이값(|θi-1 ━ θi|)이 제2 임계치(β)보다 작으면, 타겟 랜드 마크의 변경이 없는 것으로 판정하여 S521, S523 및 S525를 반복 수행하고, 그 반대의 경우에는 S517로 돌아가 타겟 랜드 마크를 새롭게 다시 선택한 후, S519, S521, S523, S525를 반복 수행한다.Subsequently, in S527, while the
이어, S529에서, 잔디 깎기 로봇(500)이 타겟 랜드 마크를 변경해 가면서 주행하는 동안, 주행 경로에 포함된 종착지에 해당하는 격자 간격에 도착하였는지를 판단하고, 도착하면, 잔디 깎기 로봇(500)의 주행과 제초 작업을 종료함으로써, 일련의 모든 과정을 종료한다.Subsequently, in S529, while the
이상 설명한 바와 같이, 본 발명에 따른 무인 잔디 깎기 로봇의 경로 설정 방법에 따르면, 랜드 마크를 원하는 작업 공간의 모서리에 놓음으로써, 간편한 작업 공간 설정이 가능하다. 또한, 잔디 깎기 로봇의 제초 너비보다 단위간격이 작은 격자 간격으로 작업공간을 구획하여, 주행 경로를 산출하기 때문에, 빈틈없는 제초가 가능하다. 또한, 실시간으로 랜드 마크를 참조하여, 위치추적을 수행하기 때문에, GPS 및 자체 센서들만을 이용하여 위치추적을 수행하는 경우보다, 정확하고 딜레이가 적으며, 주행 경로의 미세한 오차가 발생하여도 이를 실시간으로 보정하는 것이 가능하다.As described above, according to the route setting method of the unmanned lawn mower according to the present invention, by placing the landmark at the corner of the desired work space, it is possible to easily set the work space. In addition, since the working space is divided into grid intervals with a unit interval smaller than the weeding width of the lawnmower robot, and the travel path is calculated, tight weeding is possible. In addition, since it performs location tracking by referring to landmarks in real time, it is more accurate and less delayed than when location tracking is performed using only GPS and its own sensors. It is possible to correct in real time.
이하, 본 발명의 경로 설정 장치에 의해 설정된 주행 경로에 따라 무인 잔디 깎기 로봇을 구동시키는 구동 장치에 대해 기술한다.Hereinafter, a driving device for driving an unmanned lawnmower robot according to a travel path set by the path setting device of the present invention will be described.
도 5는 본 발명의 실시 예에 따른 엔진 구동식 잔디 깎기 로봇의 외관 현상을 도시한 사시도이고, 도 6은 도 1의 A 부분을 확대한 확대도이고, 도 7은 도 1 및 2에 도시한 엔진 구동식 잔디 깎기 로봇의 자동 운전을 위한 제어 장치의 블록도이고, 도 8은 도 7에 도시한 감산기로 입력되는 목표 속도 및 목표 조향각을 설명하기 위한 도면이다.5 is a perspective view showing the appearance phenomenon of an engine-driven lawn mower according to an embodiment of the present invention, FIG. 6 is an enlarged view of part A of FIG. 1, and FIG. 7 is shown in FIGS. 1 and 2 It is a block diagram of a control device for automatic driving of an engine-driven lawn mower, and FIG. 8 is a diagram for explaining a target speed and a target steering angle input to the subtractor shown in FIG. 7.
먼저, 도 7을 참조하면, 본 발명의 실시 예에 따른 구동 장치(300)는 엔진 구동식으로 주행하는 잔디 깎기 로봇(500)에 탑재된다.First, referring to FIG. 7, a
구동 장치(300)는 크게 제어 장치(100), 레버(210) 및 엔진(220)을 포함한다.The
제어 장치(100)는 레버(210)를 자동으로 조작하고, 레버(210)의 자동 조작에 따라 엔진(220)을 구동시켜서 잔디 깎기 로봇(500)의 자율 주행(자동 운전 및 자동 조향)을 제어한다. The
이를 위해, 제어 장치(100)는 가감산기(110), 통합 제어부(Mower Lever Integrated Controller)(120), 모터 제어부(Motor Controller)(130), 모터부(140), 기어부(150), 센서부(160) 및 에러 계산부(170)를 포함한다.To this end, the
여기서, 제어 장치(100) 내의 구성들 중에서 모터부(140)와 기어부(150)를 제외한 나머지 구성들(110, 120, 130, 160 및 170)은 도 5 및 6에서는 도시하지 않았으며, 상기 나머지 구성들은 엔진 구동식 잔디 깎기 로봇의 외관을 형성하는 하우징 내부에 탑재된 것으로 가정한다. 물론, 설계에 따라, 모터부(140)와 기어부(150)도 상기 하우징 내부에 탑재될 수 있다.Here, among the configurations in the
가감산기(110)Adder/Subtracter(110)
가감산기(110)는 입력부(도시하지 않음)로부터 최초 입력되는 목표 속도 (Target Mower Speed)(vt) 및 목표 자세각(또는 목표 조향각)(Target Mower Heading Angle)(θt)를 바이패싱(bypass)하여 통합 제어부(120)로 입력한다. The adder and
또한, 가감산기(110)는 목표 속도(vt)에 대응하는 잔디 깎기 로봇의 실제 속도(vm)에 대한 속도 오차(verror)와 목표 자세각(θt)에 대응하는 잔디 깎기 로봇의 실제 조향각(θm)에 대한 자세각 오차(θerror)를 에러 계산부(170)로부터 피드백 받아서, 속도 오차(verror)와 자세각 오차(θerror)를 목표 속도(vt)와 목표 자세각(θt)에 각각 가감하여 실제 속도(vm)와 실제 자세각(θm)의 오차를 보상한다.In addition, the adder and
목표 속도 (vt) 및 목표 자세각 (θt)은 사전 계산되어 설정된 값으로서, 목표 속도 (vt) 및 목표 자세각 (θt)의 사전 계산을 위해, 엔진 구동식 잔디 깎기 로봇은 별도의 센서(카메라, 초음파 또는 적외선 센서)(도시하지 않음) 및 별도의 프로세서 유닛(도시하지 않음)을 더 구비하도록 구성될 수 있다.The target speed (v t ) and the target attitude angle (θ t ) are pre-calculated and set values, and for the pre-calculation of the target speed (v t ) and the target attitude angle (θ t ), the engine-driven lawn mower robot is separately It may be configured to further include a sensor (camera, ultrasonic or infrared sensor) (not shown) and a separate processor unit (not shown).
목표 속도 (vt) 및 목표 자세각 (θt)은, 예를 들면, 도 4에 도시된 바와 같이, 일정한 크기를 갖는 복수의 랜드 마크(40, land mark)를 작업하고자 하는 공간(42, 작업 공간)의 모서리에 놓아둔 상태에서, 잔디 깎기 로봇이 작업 공간 내외의 일정한 위치에서 제자리에서 회전하면서, 내부에 구비된 각종 센서를 통해 랜드 마크를 인식한 후, 프로세서 유닛은 랜드 마크(40)를 인식한 결과 값에 따라 작업 공간을 격자 간격으로 구획하고, 구획된 격자 간격에서 최적의 주행 경로(지그-재그, 소용돌이 방향)를 계산하고, 계산된 최적의 주행 경로로부터 구획된 격자 간격 별로 목표 속도 (vt) 및 목표 자세각 (θt)을 계산할 수 있다. 이에 대한 설명은 앞에서 충분히 설명한 바 있다.The target speed (v t ) and the target attitude angle (θ t ) are, for example, as shown in FIG. Work space), while the lawnmower robot rotates in place at a certain position inside and outside the work space, and recognizes the landmark through various sensors provided therein, and then the processor unit returns the
통합 제어부(120)
다시 도 7을 참조하면, 통합 제어부(120)는 가감산기(110)로부터 입력된 목표 속도 (vt) 및 목표 자세각 (θt)에 따라 좌측 휠 속도(ωL, Left Wheel speed)와 우측 휠 속도(ωR, Right Wheel speed)를 계산하여, 이를 모터 제어부(130)로 전달한다. Referring back to FIG. 7, the
[좌우 휠 속도 계산][Calculate left and right wheel speed]
도 9는 도 7에 도시한 통합 제어부에서 수행되는 좌우 휠 속도 계산 방법을 설명하기 위한 도면이다.9 is a diagram illustrating a method of calculating left and right wheel speeds performed by the integrated control unit illustrated in FIG. 7.
도 9를 참조하면, 좌우 휠 속도 계산은 구동 휠(Drive Wheel) 및 캐스터 휠(Caster Wheel)로 구성된 차동 조향 시스템 모델의 선회 반경을 계산하여, 목표 속도 및 목표 자세각에 대응하는 좌우 휠 속도를 구할 수 있다. 즉, 계산된 선회 반경을 좌우 휠 속도에 대한 식으로 나타내고, 이를 정리하여 좌우 휠 속도를 구할 수 있다.Referring to FIG. 9, in the calculation of the left and right wheel speed, the turning radius of the differential steering system model composed of a drive wheel and a caster wheel is calculated, and the left and right wheel speeds corresponding to the target speed and the target attitude angle are calculated. You can get it. That is, the calculated turning radius is expressed as an equation for the left and right wheel speed, and the left and right wheel speed can be obtained by arranging this.
좌우 휠 속도의 계산은 다음과 같다.The calculation of the left and right wheel speed is as follows.
잔디 깎기 로봇(500)의 전체 속도(v)는 아래 수학식 1과 같이 좌우 휠 각속도로 계산될 수 있다. The total speed v of the
여기서, vR은 우측 휠 속도이고, vL은 좌측 휠 속도이고, r은 타이어 반경(Tire Radius)이다.Where v R is the right wheel speed, v L is the left wheel speed and r is the tire radius.
잔디 깎기 로봇의 자세각(Heading Angle)을 알면, 아래의 수학식 2와 같이 선회 반경(R)을 구할 수 있다. By knowing the heading angle of the lawnmower robot, the turning radius R can be obtained as shown in Equation 2 below.
, ,
여기서, 는 선회 각속도(요레이트)이고, 선회 각속도는 잔디 깎기 로봇의 좌우 휠 트레드(도 9의 t, 횡방향 길이)에 대한 휠 속도 차이로 계산되며, 아래의 수학식 3으로 나타낼 수 있다.here, Is the turning angular velocity (yaw rate), and the turning angular velocity is calculated as the difference in wheel speed with respect to the left and right wheel treads (t in FIG. 9, lateral length) of the lawnmower, and can be expressed by
전술한 식들을 이용하여 선회반경을 좌우 휠 속도에 대한 식으로 나타낼 수 있으며, 아래의 수학식 4와 같다.Using the above-described equations, the turning radius can be expressed as an equation for the left and right wheel speeds, as shown in Equation 4 below.
상기 수학식 4에 의해 정리된 선회반경 식에 수학식 1의 속도 식을 대입하여 정리하면, 각 좌우 휠 속도는 아래의 수학식 5에 의해 정리될 수 있다.By substituting the speed equation of Equation 1 to the turning radius equation summarized by Equation 4, each left and right wheel speed can be summarized by Equation 5 below.
모터 제어부(130)
모터 제어부(130)는 좌우 휠 속도와 좌우 레버 위치 사이의 관계를 나타내는 룩업 테이블(Lookup table)을 참조하여, 통합 제어부(120)로부터 입력된 좌측 휠 속도(ωL)에 맵핑되는 좌측 레버 위치(Left Lever Position)에 대응하는 좌측 모터 구동 신호(LL)와 우측 휠 속도(ωR)에 맵핑(Mapping)되는 우측 레버 위치(Right Lever Position)에 대응하는 우측 모터 구동 신호(LR)를 생성한다.The
우측 모터 구동 신호(LR)는 모터부(140)에 포함된 우측 모터(142)의 회전자 위치값(회전자 각도값)을 나타내고, 좌측 모터 구동 신호(LL)는 모터부(140)에 포함된 좌측 모터(144)의 회전자 위치값(회전자 각도값)을 나타낸다.The right motor driving signal L R represents the rotor position value (rotor angle value) of the
룩업 테이블은 좌우측 휠 속도를 좌우측 레버의 위치에 맵핑시키기 위해, 사전에 생성되어 저장 수단(예, 메모리)에 저장될 수 있다. The lookup table may be generated in advance and stored in a storage means (eg, memory) in order to map the left and right wheel speeds to the positions of the left and right levers.
룩업 테이블을 생성하는 방법은, 예를 들면, 먼저, 모터(140)의 회전자 위치값(회전자 각도값)를 단계적으로 움직여가며 휠 속도를 RPM 게이지로 측정한다. 잔디 깎기 로봇(500)이 횔 속도 센서를 구비한 경우, 횔 속도 센서가 횔 속도를 측정할 수 있다. 이후, 단계별 회전자 위치값과 휠 속도를 프로그래밍하여 룩업 테이블을 생성하고, 이를 메모리와 같은 저장 수단에 저장한다.The method of generating the lookup table is, for example, first, by moving the rotor position value (rotor angle value) of the
모터(140)Motor(140)
모터(140)는 도 5 및 7에 도시된 바와 같이, 우측 모터(142)와 좌측 모터(144)를 포함한다. The
우측 모터(142)는 모터 제어부(130)로부터 입력된 우측 모터 구동 신호(LR)에 따라 우측 토크(우측 회전력)를 생성하여 기어부(150)의 우측 기어(152)로 전달하고, 좌측 모터(144)는 모터 제어부(130)로부터 입력된 좌측 모터 구동 신호(LL)에 따라 좌측 토크(좌측 회전력)를 생성하여 기어부(150)의 좌측 기어(154)로 전달한다.The
기어부Gear (150)(150)
기어부(150)는 우측 모터(142)에서 생성한 우측 토크를 우측 레버(212)로 전달하는 우측 기어(152)와 좌측 모터(144)에서 생성한 좌측 토크를 좌측 레버(214)로 전달하는 좌측 기어(154)를 포함한다.The
우측 기어(152)는, 우측 모터(142)에서 생성한 우측 토크를 우측 레버(212)로 전달하기 위해, 도 2에 도시된 바와 같이, 우측 모터(142)의 회전축에 고정 결합되어 회전축의 회전에 따라 회전하는 피니언 기어(152A, Pinion Gear)와 우측 레버에 고정 결합된 부채꼴 형상을 갖는 랙(Rack) 부재(152B)를 포함한다.The
랙 부재(152B)의 외주면(부채꼴 호)에는 랙 기어(52)가 형성되어, 랙 기어(52)와 피니언 기어(152A)가 치합하여 피니언 기어(152A)의 회전에 따라 랙 부재(152B)가 전후 왕복운동 한다.A
즉, 우측 기어(152)는 랙-피니언 기어 구조를 가지며, 이러한 랙-피니언 기어 구조에 따라 우측 모터(142)에서 생성한 우측 토크를 우측 레버(212)로 전달한다.That is, the
좌측 기어(154)도 마찬가지로 우측 기어(152)와 같이 랙-피니언 기어 구조를 가지며, 이러한 랙-피니언 기어 구조에 따라 좌측 모터(144)에서 생성한 우측 토크를 좌측 레버(214)로 전달한다. 좌측 기어(154)에 대한 상세 구조는 우측 기어(152)에 대한 설명으로 대신한다.The
레버(210)는, 도 5 및 7에 도시된 바와 같이, 우측 기어(152)에 포함된 랙 부재(152B)의 전후 왕복 운동에 따라 전후로 위치가 변경되는 우측 레버(212)와 좌측 기어(154)에 포함된 랙 부재의 전후 왕복 운동에 따라 전후로 위치가 변경되는 좌측 레버(214)를 포함한다. 이처럼 레버(210)는 자동운전을 위해 각각의 모터와 기구적으로(기어) 연결됨에 따라 자동 운전을 위한 시스템 구성이 가능하다.As shown in FIGS. 5 and 7, the
엔진(220)은 우측 레버(212)와 좌측 레버(214)의 위치에 따라 잔디 깎기 로봇에게 주행 동력을 제공하는 가솔린 엔진일 수 있다.The
참고로, 좌우 휠 속도가 같은 경우는 직진, 차이가 있는 경우는 우측 또는 좌측 선회, 부호가 다른 경우는 제자리 턴(Spin(zero turn))이 된다.For reference, if the left and right wheel speeds are the same, it goes straight, if there is a difference, it turns right or left, and if the sign is different, it becomes a spin (zero turn).
센서부Sensor part (160)(160)
센서부(160)는 잔디 깎기 기계에 탑재되어, 엔진(220)에 따라 주행하는 잔디 깎기 로봇의 실제 속도 및 실제 자세각을 측정한다. The
실제 속도 및 실제 자세각을 측정하기 위해, 센서부(160)는 레이다 센서, GPS 센서, 자이로 센서, 가속도 센서 등의 복수의 센서를 포함하도록 구성되며, 각 센서들의 의해 측정된 센싱 값들을 기반으로 주행하는 잔디 깎기 로봇의 실제 속도(vm) 및 실제 자세각(θm)을 측정할 수 있다.In order to measure the actual speed and the actual attitude angle, the
에러 Error 계산부Calculation (170)(170)
에러 계산부(170)는 센서부(160)로부터 입력되는 실제 속도(vm)와 가감산기(110)로 입력되는 목표 속도(vt) 간의 차이를 계산하여 속도 오차(verror = vm - vt)를 생성하고, 센서부(160)로부터 입력되는 실제 자세각(θm)과 가감산기(110)로 입력되는 목표 자세각(θt) 간의 차이를 계산하여 자세각 오차(θerror= θm - θt)를 생성하여 가감산기(110)로 피드백 한다. The error calculation unit 170 calculates the difference between the actual speed (v m ) input from the sensor unit 160 and the target speed (v t ) input to the add/
그러면, 가감산기(110)는 속도 오차(verror)와 자세각 오차(θerror)를 목표 속도(vt)와 목표 자세각(θt)에 각각 가감하여 실제 속도(vm)와 실제 자세각(θm)의 오차를 보상한다.Then, the adder and
이처럼 본 발명의 엔진 구동식 잔디 깎기 로봇(500)은 가감산기(110), 통합 제어부(120), 모터 제어부(130), 모터(140), 기어부(150), 센서부(160) 및 에러 계산부(170)를 포함하는 제어 장치를 탑재함으로써, 기존의 수동식 레버로 조작되는 엔진 구동식 잔디 깎기 기계의 자동 구동 및 자동 조향 제어가 가능함에 따라 자동 운전으로 제초 작업을 진행할 수 있고, 반복 작업이 필요한 작업 공간에서 자동 운전으로 제초 작업을 진행함으로써, 사용자의 편의성을 높일 수 있다. 나아가, 레버로 조작되는 다양한 기계 장치의 자동 운전 및 자동화 시스템을 구성하여 효율성을 높일 수 있다.As such, the engine-driven
도 10은 본 발명의 실시 예에 따른 엔진 구동식 잔디 깎기 로봇의 자동운전을 위한 제어 방법을 나타내는 순서도이다.10 is a flowchart illustrating a control method for automatic operation of an engine-driven lawn mower according to an embodiment of the present invention.
도 10을 참조하면, 먼저, S610에서, 통합 제어부가, 가감산기를 통해 바이패싱된 목표 속도 및 목표 자세각을 입력받고, 상기 입력된 목표 속도 및 목표 자세각으로부터 상기 잔디 깎기 기계의 좌측 및 우측 휠 속도를 계산한다. Referring to FIG. 10, first, in S610, the integrated control unit receives the bypassed target speed and target posture angle through an add/subtracter, and the left and right sides of the lawnmower from the input target speed and target posture angle. Calculate the wheel speed.
좌측 및 우측 휠 속도의 계산은, 예를 들면, 구동 휠(Drive Wheel) 및 캐스터 휠(Caster Wheel)로 구성된 잔디 깎기 기계의 선회 반경을 계산한 후, 상기 계산된 선회 반경으로부터 계산될 수 있으며, 이러한 좌측 및 우측 휠 속도(ωL, ωR)의 계산은 전술한 수학식 1 내지 5를 프로그래밍한 프로그램 코드의 실행에 따라 수행될 수 있다.The calculation of the left and right wheel speeds may be calculated from the calculated turning radius, after calculating the turning radius of a lawn mower consisting of, for example, a drive wheel and a caster wheel, The calculation of the left and right wheel speeds ω L and ω R may be performed according to the execution of the program code in which Equations 1 to 5 are programmed.
목표 속도 및 목표 자세각은 S610 이전에 사전 계산될 수 있으며, 예를 들면, 일정한 크기를 갖는 복수의 랜드 마크를 작업 공간의 모서리에 설치한 후, 상기 잔디 깎기 기계가 상기 작업 공간 내외의 일정한 위치에서 제자리에서 회전하면서, 내부에 구비된 센서를 통해 상기 랜드 마크를 인식한다. 이후, 별도의 프로세서 유닛이 상기 랜드 마크를 인식한 결과 값에 따라 작업 공간을 격자 간격으로 구획하고, 구획된 격자 간격에서 최적의 주행 경로를 계산한다. 그리고, 상기 계산된 최적의 주행 경로로부터 구획된 격자 간격 별로 상기 목표 속도 및 목표 자세각을 계산한다.The target speed and the target attitude angle may be pre-calculated before S610. For example, after installing a plurality of landmarks having a certain size at the corners of the work space, the lawn mower is positioned at a certain position inside and outside the work space. While rotating in place, the landmark is recognized through a sensor provided inside. Thereafter, a separate processor unit divides the work space at grid intervals according to the result of recognizing the landmark, and calculates an optimal travel path at the partitioned grid intervals. Then, the target speed and the target attitude angle are calculated for each grid interval partitioned from the calculated optimal travel path.
이어, S620에서, 모터 제어부가, 통합 제어부로부터 입력된 상기 좌측 휠 속도에 맵핑되는 좌측 레버 위치에 대응하는 좌측 모터 구동 신호와 상기 우측 휠 속도에 맵핑되는 우측 레버 위치에 대응하는 우측 모터 구동 신호를 출력한다.Subsequently, in S620, the motor control unit generates a left motor driving signal corresponding to a left lever position mapped to the left wheel speed input from the integrated control unit and a right motor driving signal corresponding to a right lever position mapped to the right wheel speed. Print it out.
구체적으로, 좌우 휠 속도와 좌우 레버 위치 사이의 관계를 나타내는 룩업 테이블을 참조하여, 상기 좌측 휠 속도에 맵핑되는 좌측 레버 위치와 상기 우측 휠 속도에 맵핑되는 우측 레버 위치를 계산하고, 상기 좌측 레버 위치에 대응하는 좌측 모터 구동 신호와 상기 우측 레버 위치에 대응하는 우측 모터 구동 신호를 출력한다.Specifically, by referring to a lookup table representing the relationship between the left and right wheel speeds and the left and right lever positions, the left lever position mapped to the left wheel speed and the right lever position mapped to the right wheel speed are calculated, and the left lever position A left motor driving signal corresponding to and a right motor driving signal corresponding to the right lever position are output.
이어, S630에서, 좌측 모터가, 상기 좌측 모터 구동 신호에 따라 좌측 회전력(좌측 토크)을 생성하고, 우측 모터가, 상기 우측 모터 구동 신호에 따라 우측 회전력(우측 토크)을 생성한다.Subsequently, in S630, the left motor generates a left rotational force (left torque) according to the left motor driving signal, and the right motor generates a right rotational force (right torque) according to the right motor driving signal.
이어, S640에서, 좌측 기어가, 상기 좌측 회전력을 왕복 직선 운동(전후 왕복 운동)으로 변환하여 좌측 레버로 전달하고, 우측 기어가, 상기 우측 회전력을 왕복 직선 운동으로 변환하여 우측 레버로 전달한다.Subsequently, in S640, the left gear converts the left rotational force into reciprocating linear motion (back and forth reciprocating motion) and transmits it to the left lever, and the right gear converts the right rotational force into reciprocating linear motion and transmits it to the right lever.
여기서, 좌측 기어는 도 5 및 6에 도시된 바와 같이, 랙-피니언 기어 결합 방식에 따라 좌측 모터와 좌측 레버를 기구적으로 연결하고, 마찬가지로, 우측 기어 또한, 랙-피니언 기어 결합 방식에 따라 우측 모터와 우측 레버를 기구적으로 연결한다. 이러한 랙-피니언 기어 결합 구조에 따라, 모터에 생성한 회전력을 왕복 직선 운동(전후 왕복 운동)을 변환하여 레버로 전달될 수 있다.Here, the left gear mechanically connects the left motor and the left lever according to the rack-pinion gear coupling method, as shown in Figs. 5 and 6, and similarly, the right gear is also the right gear according to the rack-pinion gear coupling method. Mechanically connect the motor and the right lever. According to such a rack-pinion gear coupling structure, the rotational force generated by the motor may be converted into a reciprocating linear motion (back and forth reciprocating motion) and transmitted to the lever.
이어, S650에서, 상기 좌측 레버와 상기 우측 레버의 왕복 직선 운동에 따라, 상기 잔디 깎기 기계가 자동 운전을 수행하는 단계 Subsequently, in S650, the step of performing an automatic operation by the lawnmower according to the reciprocating linear motion of the left lever and the right lever.
S650 이후, 자동 운전에 따른 실제 속도 및 실제 자세각에 대한 오차를 보상하는 과정이 더 수행될 수 있다.After S650, a process of compensating for errors in the actual speed and the actual attitude angle according to the automatic driving may be further performed.
구체적으로, S650 이후, 센서부가, 상기 잔디 깎기 기계의 자동 운전에 따른 실제 속도 및 실제 자세각을 측정한 후, 에러 계산부가, 상기 실제 속도와 상기 목표 속도 간의 차이를 계산하여 속도 오차를 생성하고, 상기 실세 자세각과 상기 목표 자세각 간의 차이를 계산하여 자세각 오차를 생성한다. 이후, 상기 통합 제어부의 전단에 구비된 가감산기가, 상기 속도 오차와 상기 자세각 오차를 상기 목표 속도와 상기 목표 자세각에 각각 가감하여 상기 실제 속도와 상기 실제 자세각의 오차를 보상한다.Specifically, after S650, after the sensor unit measures the actual speed and the actual attitude angle according to the automatic operation of the lawnmower, the error calculation unit calculates the difference between the actual speed and the target speed to generate a speed error. , A posture angle error is generated by calculating a difference between the actual posture angle and the target posture angle. Thereafter, an addition/subtracter provided at the front end of the integrated control unit compensates for the error between the actual speed and the actual posture angle by adding and subtracting the speed error and the posture angle error to the target speed and the target posture angle, respectively.
이상, 본 발명에 대하여 실시 예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 발명의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 본 발명의 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.Above, the present invention has been described centering on the embodiments, but these are only examples and do not limit the present invention, and those of ordinary skill in the field to which the present invention pertains will not depart from the essential characteristics of the present invention. It will be appreciated that various modifications and applications that are not illustrated in are possible. For example, each component specifically shown in the embodiment of the present invention can be modified and implemented. And differences related to these modifications and applications should be construed as being included in the scope of the present invention defined in the appended claims.
Claims (16)
레이더 센서가, 작업 공간을 정의하는 랜드 마크로 송신한 레이더 신호의 반사 신호로부터 거리 값 및 각도 값을 획득하는 단계;
카메라 센서가, 상기 랜드 마크를 촬영하여 이미지를 획득하는 단계;
경로 산출부가, 상기 레이더 센서로부터 입력된 상기 거리 값 및 각도 값 중에서 상기 각도 값을 상기 카메라 센서로부터 입력된 상기 이미지를 이용하여 보정하고, 상기 거리 값과 상기 보정된 각도 값을 이용하여 상기 작업 공간 내에서의 주행 경로를 산출하는 단계; 및
구동 장치가, 상기 산출된 주행 경로에 따라 무인 잔디 깎기 로봇을 구동시키는 단계
를 포함하는 무인 잔디 깎기 로봇의 구동 방법. In the driving method of an unmanned lawnmower robot capable of autonomous driving,
Obtaining, by a radar sensor, a distance value and an angle value from a reflected signal of a radar signal transmitted to a landmark defining a working space;
Obtaining an image by photographing the landmark by a camera sensor;
The path calculation unit corrects the angle value from the distance value and the angle value input from the radar sensor using the image input from the camera sensor, and uses the distance value and the corrected angle value to the work space. Calculating a driving route within the vehicle; And
Driving, by a driving device, the unmanned lawn mower robot according to the calculated travel path.
Driving method of an unmanned lawn mower robot comprising a.
상기 경로 산출부가, 카메라 센서가 랜드 마크를 촬영하여 획득한 이미지를 이용하여 작업 공간을 설정하는 단계를 더 포함하는 것인 무인 잔디 깎기 로봇의 구동 방법. In claim 1,
The driving method of the unmanned lawnmower robot further comprising the step of setting the work space using the image obtained by the camera sensor photographing the landmark by the path calculation unit.
상기 작업 공간을 설정하는 단계는,
사전에 정의한 이미지 내의 랜드 마크의 크기와 상기 무인 잔디 깎기 로봇으로부터 랜드 마크까지의 거리와의 관계를 기반으로, 카메라 센서로부터 현재 입력된 이미지에 포함된 랜드 마크의 크기를 기준으로 상기 작업 공간을 계산하여 설정하는 것인 무인 잔디 깎기 로봇의 구동 방법.In paragraph 2,
The step of setting the working space,
Based on the relationship between the size of the landmark in the image defined in advance and the distance from the unmanned lawnmower to the landmark, the work space is calculated based on the size of the landmark included in the image currently input from the camera sensor. How to drive the unmanned lawnmower robot that is set by.
상기 주행 경로를 산출하는 단계는,
상기 이미지 상에서 상기 랜드 마크의 중심점을 탐색하고, 상기 탐색된 중심점의 좌표 정보를 이용하여 상기 각도 값을 보정하는 단계
를 포함하는 무인 잔디 깎기 로봇의 구동 방법.In claim 1,
The step of calculating the travel path,
Searching for a center point of the landmark on the image and correcting the angle value using coordinate information of the searched center point
Driving method of an unmanned lawn mower robot comprising a.
상기 주행 경로를 산출하는 단계는,
상기 거리 값과 각도 값을 UV 좌표로 변환하는 단계;
상기 이미지 상에서 상기 변환된 UV 좌표를 기준으로 상기 랜드 마크의 중심점을 탐색하는 단계; 및
상기 탐색된 중심점에 대응하는 UV 좌표와 상기 변환된 UV 좌표 간의 차이 값을 계산하고, 상기 계산된 차이 값을 이용하여 상기 각도 값을 보정하는 단계
를 포함하는 무인 잔디 깎기 로봇의 구동 방법.In claim 1,
The step of calculating the travel path,
Converting the distance value and the angle value into UV coordinates;
Searching for a center point of the landmark based on the converted UV coordinates on the image; And
Calculating a difference value between the UV coordinate corresponding to the searched center point and the converted UV coordinate, and correcting the angle value using the calculated difference value
Driving method of an unmanned lawn mower robot comprising a.
상기 경로 산출 장치는,
작업 공간을 정의하는 랜드 마크로 송신한 레이더 신호의 반사 신호로부터 거리 값 및 각도 값을 획득하는 레이더 센서;
상기 랜드 마크를 촬영하여 이미지를 획득하는 카메라 센서; 및
상기 레이더 센서로부터 입력된 상기 거리 값 및 각도 값 중에서 상기 각도 값을 상기 카메라 센서로부터 입력된 상기 이미지를 이용하여 보정하고, 상기 거리 값과 상기 보정된 각도 값을 이용하여 상기 작업 공간 내에서의 상기 주행 경로를 산출하는 경로 산출부
를 포함하는 무인 잔디 깎기 로봇.A route calculation device for calculating a travel path and a driving device for driving autonomous driving of the unmanned lawnmower robot according to the calculated travel path,
The route calculation device,
A radar sensor that obtains a distance value and an angle value from a reflected signal of a radar signal transmitted to a landmark defining a working space;
A camera sensor that captures the landmark and acquires an image; And
Among the distance values and angle values input from the radar sensor, the angle value is corrected using the image input from the camera sensor, and the distance value and the corrected angle value are used in the working space. Route calculation unit that calculates the driving route
Unmanned lawn mower robot comprising a.
상기 경로 산출부는,
상기 카메라 센서가 랜드 마크를 촬영하여 획득한 이미지를 이용하여 상기 작업 공간을 설정하는 것인 무인 잔디 깎기 로봇.In paragraph 6,
The path calculation unit,
The unmanned lawn mower robot to set the working space using the image acquired by the camera sensor photographing the landmark.
상기 경로 산출부는,
사전에 정의한 이미지 내의 랜드 마크의 크기와 상기 무인 잔디 깎기 로봇으로부터 랜드 마크까지의 거리와의 관계를 기반으로, 상기 카메라 센서로부터 현재 입력된 이미지에 포함된 랜드 마크의 크기를 기준으로 상기 작업 공간을 계산하여 설정하는 것인 무인 잔디 깎기 로봇.In paragraph 6,
The path calculation unit,
Based on the relationship between the size of the landmark in the image defined in advance and the distance from the unmanned lawnmower to the landmark, the working space is determined based on the size of the landmark included in the image currently input from the camera sensor. An unmanned lawnmower robot that calculates and sets.
상기 경로 산출부는,
상기 이미지 상에서 상기 랜드 마크의 중심점을 탐색하고, 상기 탐색된 중심점의 좌표 정보를 이용하여 상기 각도 값을 보정하는 것인 무인 잔디 깎기 로봇.In paragraph 6,
The path calculation unit,
An unmanned lawn mower robot that searches for a center point of the landmark on the image and corrects the angle value using coordinate information of the searched center point.
상기 경로 산출부는,
상기 거리 값과 각도 값을 UV 좌표로 변환하고, 상기 이미지 상에서 상기 변환된 UV 좌표를 기준으로 상기 랜드 마크의 중심점을 탐색하여, 상기 탐색된 중심점에 대응하는 UV 좌표와 상기 변환된 UV 좌표 간의 차이 값을 이용하여 상기 각도 값을 보정하는 것인 무인 잔디 깎기 로봇.In paragraph 6,
The path calculation unit,
The difference between the UV coordinates corresponding to the searched center point and the converted UV coordinates by converting the distance value and angle value to UV coordinates and searching for the center point of the landmark based on the converted UV coordinates on the image The unmanned lawn mower robot to correct the angle value using the value.
레이더 센서가, 랜드 마크로 송신한 레이더 신호의 반사 신호로부터 거리 값 및 각도 값을 획득하는 단계;
카메라 센서가, 상기 랜드 마크를 촬영하여 이미지를 획득하는 단계;
경로 산출부가, 상기 각도 값을 상기 이미지를 이용하여 보정하는 단계;
상기 경로 산출부가, 상기 거리 값과 상기 보정된 각도 값을 기반으로 복수의 랜드 마크 중에서 타겟 랜드 마크를 선택하는 단계;
상기 경로 산출부가, 상기 선택된 타겟 랜드 마크를 추종하는 주행 경로를 생성하는 단계; 및
상기 경로 산출부가, 상기 주행 경로에 대응하는 목표 속도값과 목표 자세각을 산출하는 단계
를 포함하는 무인 잔디 깎기 로봇의 경로 설정 방법.In the route setting method of an unmanned lawnmower capable of autonomous driving,
Obtaining, by the radar sensor, a distance value and an angle value from the reflected signal of the radar signal transmitted to the landmark;
Obtaining an image by photographing the landmark by a camera sensor;
Correcting, by a path calculator, the angle value using the image;
Selecting, by the route calculator, a target landmark from among a plurality of landmarks based on the distance value and the corrected angle value;
Generating, by the route calculator, a traveling route following the selected target landmark; And
Calculating, by the route calculating unit, a target speed value and a target attitude angle corresponding to the traveling route
Route setting method of the unmanned lawnmower robot comprising a.
상기 거리 값 및 각도 값을 획득하는 단계 이전에,
상기 경로 산출부가, 상기 카메라 센서가 랜드 마크를 촬영하여 획득한 이미지를 이용하여 작업 공간을 설정하는 단계; 및
상기 경로 산출부가, 상기 설정된 작업 공간을 상기 무인 잔디 깎기 로봇의 제초 너비보다 작은 단위의 격자 간격으로 구획하는 단계
를 포함하는 무인 잔디 깎기 로봇의 경로 설정 방법.In clause 11,
Prior to the step of obtaining the distance value and angle value,
Setting a work space using an image obtained by photographing a landmark by the camera sensor, by the route calculation unit; And
The path calculation unit dividing the set working space into a grid interval of a unit smaller than the weeding width of the unmanned lawn mower robot
Route setting method of the unmanned lawnmower robot comprising a.
상기 작업 공간을 설정하는 단계는,
사전에 정의한 이미지 내의 랜드 마크의 크기와 상기 무인 잔디 깎기 로봇으로부터 랜드 마크까지의 거리와의 관계를 기반으로, 카메라 센서로부터 현재 입력된 이미지에 포함된 랜드 마크의 크기를 기준으로 상기 작업 공간을 계산하여 설정하는 것인 무인 잔디 깎기 로봇의 경로 설정 방법.In claim 12,
The step of setting the working space,
Based on the relationship between the size of the landmark in the image defined in advance and the distance from the unmanned lawnmower to the landmark, the work space is calculated based on the size of the landmark included in the image currently input from the camera sensor. How to set the path of the unmanned lawnmower robot that is set by using.
상기 보정하는 단계는,
상기 거리 값과 각도 값을 UV 좌표로 변환하는 단계;
상기 이미지 상에서 상기 변환된 UV 좌표를 기준으로 상기 랜드 마크의 중심점을 탐색하는 단계; 및
상기 탐색된 중심점에 대응하는 UV 좌표와 상기 변환된 UV 좌표 간의 차이 값을 계산하고, 상기 계산된 차이 값을 이용하여 상기 각도 값을 보정하는 단계를 포함는 것인 무인 잔디 깎기 로봇의 경로 설정 방법.In clause 11,
The step of correcting,
Converting the distance value and the angle value into UV coordinates;
Searching for a center point of the landmark based on the converted UV coordinates on the image; And
And calculating a difference value between the UV coordinate corresponding to the searched center point and the converted UV coordinate, and correcting the angle value using the calculated difference value.
상기 타겟 랜드 마크를 선택하는 단계는,
상기 선택된 타겟 랜드 마크에 트랙 ID를 부여하는 단계를 더 포함하는 것인 무인 잔디 깎기 로봇의 경로 설정 방법.In clause 11,
The step of selecting the target landmark,
The method of setting a route of the unmanned lawnmower robot further comprising the step of assigning a track ID to the selected target landmark.
상기 목표 속도값과 목표 자세각을 산출하는 단계 이후에 상기 타겟 랜드 마크의 변경 여부를 판단하는 단계를 더 포함하고,
상기 판단하는 단계는,
레이더 센서에서 이전에 획득한 거리 값과 현재 획득한 거리 값의 차이 값과 제1 임계치를 비교하고, 레이더 센서에서 이전에 획득한 각도 값을 보정한 각도 값과 레이더 센서에서 현재 획득한 각도 값을 보정한 각도 값과의 차이 값과 제2 임계치를 비교하여, 상기 타겟 랜드 마크의 변경 여부를 판단하는 것인 무인 잔디 깎기 로봇의 경로 설정 방법.In clause 11,
After the step of calculating the target speed value and the target attitude angle, determining whether the target landmark is changed,
The determining step,
The difference between the distance value previously acquired by the radar sensor and the current acquired distance value and the first threshold are compared, and the angle value corrected for the angle value previously acquired by the radar sensor and the current acquired angle value from the radar sensor are compared. The route setting method of the unmanned lawnmower robot, wherein the difference value between the corrected angle value and the second threshold value are compared to determine whether or not the target landmark is changed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190130286A KR20210046501A (en) | 2019-10-18 | 2019-10-18 | unmanned mowing robot and automatic driving method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190130286A KR20210046501A (en) | 2019-10-18 | 2019-10-18 | unmanned mowing robot and automatic driving method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210046501A true KR20210046501A (en) | 2021-04-28 |
Family
ID=75721327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190130286A KR20210046501A (en) | 2019-10-18 | 2019-10-18 | unmanned mowing robot and automatic driving method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210046501A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102567772B1 (en) * | 2023-02-24 | 2023-08-17 | 한화시스템(주) | Apparatus and method for removing target ambiguity in radar system using search beam of MPRF waveform |
CN117270548A (en) * | 2023-11-23 | 2023-12-22 | 安徽领云物联科技有限公司 | Intelligent inspection robot with route correction function |
-
2019
- 2019-10-18 KR KR1020190130286A patent/KR20210046501A/en active Search and Examination
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102567772B1 (en) * | 2023-02-24 | 2023-08-17 | 한화시스템(주) | Apparatus and method for removing target ambiguity in radar system using search beam of MPRF waveform |
CN117270548A (en) * | 2023-11-23 | 2023-12-22 | 安徽领云物联科技有限公司 | Intelligent inspection robot with route correction function |
CN117270548B (en) * | 2023-11-23 | 2024-02-09 | 安徽领云物联科技有限公司 | Intelligent inspection robot with route correction function |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10990099B2 (en) | Motion planning methods and systems for autonomous vehicle | |
CN107167141B (en) | Robot autonomous navigation system based on double laser radars | |
US10444764B2 (en) | Self-position estimating apparatus and self-position estimating method | |
US8515612B2 (en) | Route planning method, route planning device and autonomous mobile device | |
CN110696818A (en) | Automatic parking method and system based on optimal path | |
US20080059015A1 (en) | Software architecture for high-speed traversal of prescribed routes | |
JP6910973B2 (en) | Vehicle control device, its control method, and vehicle control system | |
JP5310285B2 (en) | Self-position estimation apparatus and self-position estimation method | |
CN105752154B (en) | Vehicle steering control system and method | |
JP5187758B2 (en) | Unmanned mobile system | |
EP2296072A2 (en) | Asymmetric stereo vision system | |
CN111123950B (en) | Driving control method and device and vehicle | |
CN115690146A (en) | Multi-target tracking method and device, computing equipment and storage medium | |
CN111474928A (en) | Robot control method, robot, electronic device, and readable storage medium | |
KR20210046501A (en) | unmanned mowing robot and automatic driving method thereof | |
CN110673608A (en) | Robot navigation method | |
JP5187757B2 (en) | Unmanned mobile system | |
CN108196538B (en) | Three-dimensional point cloud model-based field agricultural robot autonomous navigation system and method | |
CN115993825A (en) | Unmanned vehicle cluster control system based on air-ground cooperation | |
US11912360B2 (en) | Vehicle control method, vehicle control system, and vehicle | |
JP2020024618A (en) | Moving route acquisition method and moving route acquisition apparatus | |
JP7255676B2 (en) | Carrier system, carrier, and control method | |
CN111290396A (en) | Automatic control method for unmanned ship for pipeline detection | |
CN115993089A (en) | PL-ICP-based online four-steering-wheel AGV internal and external parameter calibration method | |
JP6589578B2 (en) | Travel amount estimation device, autonomous mobile body, and travel amount estimation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |