KR102341712B1 - Robot with high accuracy position determination, and method for operating the same - Google Patents
Robot with high accuracy position determination, and method for operating the same Download PDFInfo
- Publication number
- KR102341712B1 KR102341712B1 KR1020200038170A KR20200038170A KR102341712B1 KR 102341712 B1 KR102341712 B1 KR 102341712B1 KR 1020200038170 A KR1020200038170 A KR 1020200038170A KR 20200038170 A KR20200038170 A KR 20200038170A KR 102341712 B1 KR102341712 B1 KR 102341712B1
- Authority
- KR
- South Korea
- Prior art keywords
- mobile robot
- unit
- lidar
- reflectors
- main body
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1653—Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명은 본체, 상기 본체를 이동시키기 위한 주행부, 주행영역에 대한 지도 - 상기 지도는, 복수의 반사체들의 위치를 포함함 - 를 저장하는 저장부, 상기 본체에 복수 개가 마련되되, 레이저 광을 이용하여 전방의 오브젝트를 감지하는 라이다(lidar), 현재 위치를 인식하여 상기 주행영역 내 이동경로를 따라 주행토록 상기 주행부를 제어하는 제어부를 포함하고, 상기 제어부는, 상기 라이다를 이용하여 상기 복수의 반사체들에 대한 거리 및 방향을 측정하고, 측정된 상기 복수의 반사체들에 대한 거리 및 방향을 이용하여 현재 위치를 계산하는 것을 특징으로 하는 측위 정확도가 높은 이동로봇을 제공한다.The present invention provides a main body, a driving unit for moving the main body, and a storage unit for storing a map of the driving area - the map includes positions of a plurality of reflectors - a plurality of doedoe provided in the main body, a lidar for detecting an object in front by using a lidar, and a controller for recognizing a current location and controlling the driving unit to drive along a movement path within the driving area, wherein the controller includes the lidar using the lidar Provided is a mobile robot with high positioning accuracy, which measures the distance and direction of a plurality of reflectors, and calculates a current position using the measured distances and directions of the plurality of reflectors.
Description
본 발명은 측위 정확도가 높은 이동로봇 및 이의 동작방법에 관한 것으로서, 보다 상세하게는 이동로봇이 전방 장애물을 감지하기 위해 마련된 라이다를 이용하여 측위 정확도를 향상시킬 수 있는 측위 정확도가 높은 이동로봇 및 이의 동작방법에 관한 것이다.The present invention relates to a mobile robot with high positioning accuracy and an operating method thereof, and more particularly, to a mobile robot with high positioning accuracy, in which the mobile robot can improve positioning accuracy by using a lidar provided to detect an obstacle in front, and It relates to a method of its operation.
최근 자율주행기술이 접목된 이동로봇에 대한 연구가 활발하게 이루어지고 있다. 이러한 자율주행을 하는 이동로봇은 통상 주행영역(또는 임무영역) 내에서 자유롭게 이동하기 위하여 자기의 현재 위치를 정확히 측정할 수 있어야 목표위치로 정확히 이동할 수 있게 된다.Recently, research on mobile robots incorporating autonomous driving technology has been actively conducted. In order to move freely within a normal driving area (or mission area), a mobile robot that performs such autonomous driving can accurately move to a target position only when it can accurately measure its current position.
그러나 주행영역 내에서 이동로봇이 이동할 때, 다양한 외부 조건 등에 의하여 주행 중 미끄러짐이 발생하거나, 외력 등으로 인하여 강제로 위치가 변화하거나, 바닥의 평탄도가 일정하지 않은 경우 등에는 이동로봇이 측정한 현재 위치에 오차(error)가 발생할 수 있는 문제가 있다.However, when the mobile robot moves within the driving area, if slip occurs while driving due to various external conditions, the position is forcibly changed due to an external force, etc., or if the floor is not flat, the measured There is a problem that an error may occur in the current position.
측위에 오류가 발생한 이동로봇은 지령에 따른 이동뿐 아니라 이로 인한 다양한 문제를 야기케 한다.A mobile robot with an error in positioning causes various problems as well as movement according to commands.
종래에는 이동로봇의 현재 위치를 정확히 측위하기 위해, 다양한 방법들이 알려져 있으나, 본 발명자는 이동로봇의 현재 위치를 측정하기 위한 새로운 방법을 제시하고자 한다.Conventionally, various methods have been known for accurately positioning the current position of the mobile robot, but the present inventor intends to propose a new method for measuring the current position of the mobile robot.
본 발명은, 기존에 이동로봇이 구비하고 있는 복수의 라이다를 활용하여, 지도 내 절대적인 위치를 가진 반사체를 인식하고, 이를 근거로 측위 정확도가 높은 이동로봇 및 이의 동작방법을 제공하고자 한다.An object of the present invention is to provide a mobile robot with high positioning accuracy and an operating method thereof by recognizing a reflector having an absolute position on a map by utilizing a plurality of lidars that are included in the existing mobile robot.
상기 과제를 해결하기 위하여, 본 발명은 본체, 상기 본체를 이동시키기 위한 주행부, 주행영역에 대한 지도 - 상기 지도는, 복수의 반사체들의 위치를 포함함 - 를 저장하는 저장부, 상기 본체에 복수 개가 마련되되, 레이저 광을 이용하여 전방의 오브젝트를 감지하는 라이다(lidar), 현재 위치를 인식하여 상기 주행영역 내 이동경로를 따라 주행토록 상기 주행부를 제어하는 제어부를 포함하고, 상기 제어부는, 상기 라이다를 이용하여 상기 복수의 반사체들에 대한 거리 및 방향을 측정하고, 측정된 상기 복수의 반사체들에 대한 거리 및 방향을 이용하여 현재 위치를 계산하는 것을 특징으로 하는 측위 정확도가 높은 이동로봇을 제공한다.In order to solve the above problems, the present invention provides a main body, a driving unit for moving the main body, and a map for a driving area - the map includes a location of a plurality of reflectors - a storage unit for storing a plurality of them in the main body A dog is provided, comprising: a lidar that detects an object in front by using laser light; and a control unit that recognizes a current location and controls the traveling unit to travel along a movement path within the traveling area, the control unit comprising: A mobile robot with high positioning accuracy, which measures the distance and direction of the plurality of reflectors using the lidar, and calculates the current position using the measured distance and direction of the plurality of reflectors provides
일 실시예에 따라, 상기 제어부는, 상기 라이다를 이용하여 상기 반사체에 의해 반사된 상기 레이저 광의 반사율을 근거로 상기 반사체를 인식하여, 측정된 상기 복수의 반사체들에 대한 거리 및 방향을 근거로 한 삼각측량법으로 현재 위치를 계산할 수 있다.According to an embodiment, the controller recognizes the reflector based on the reflectance of the laser light reflected by the reflector using the lidar, and based on the measured distances and directions for the plurality of reflectors A triangulation method can calculate the current position.
일 실시예에 따라, 상기 반사체는, 복수의 단위반사부재가 일정 패턴으로 그룹화된 것을 특징으로 하고, 상기 제어부는, 상기 패턴을 근거로 상기 반사체를 식별할 수 있다.According to an embodiment, the reflector is characterized in that a plurality of unit reflective members are grouped in a predetermined pattern, and the controller may identify the reflector based on the pattern.
일 실시예에 따라, 상기 반사체는, 다각기둥 또는 원기둥의 형태이고, 상기 패턴은, 가로무늬의 바코드 패턴일 수 있다.According to an embodiment, the reflector may have a polygonal or cylindrical shape, and the pattern may be a horizontal barcode pattern.
일 실시예에 따라, 상기 제어부는, 자세센서를 이용한 제1 측위결과와, 엔코더를 이용한 제2 측위결과와, 상기 라이다를 이용한 스캔매치법에 따른 제3 측위결과와, 상기 라이다를 이용한 상기 삼각측량법에 따른 제4 측위결과의 조합으로 현재 위치를 계산할 수 있다.According to an embodiment, the control unit includes a first positioning result using a posture sensor, a second positioning result using an encoder, a third positioning result according to a scan-match method using the lidar, and the lidar using the lidar. The current position can be calculated by combining the fourth positioning result according to the triangulation method.
일 실시예에 따라, 상기 제어부는, 상기 복수의 라이다 각각에 의해 형성되는 센서범위의 중심을 상기 이동로봇의 현재 측위의 기준이 되는 기준점으로 이동시켜, 상기 센서범위를 변환시킬 수 있다.According to an embodiment, the controller may change the sensor range by moving the center of the sensor range formed by each of the plurality of lidar to a reference point that is a reference point for the current positioning of the mobile robot.
일 실시예에 따라, 상기 기준점은, 평면상의 상기 본체의 중심 위치일 수 있다.According to an embodiment, the reference point may be a center position of the body on a plane.
또한, 본 발명은, 본체와, 상기 본체를 이동시키기 위한 주행부와, 상기 본체에 복수 개가 마련되되 레이저 광을 이용하여 전방의 오브젝트를 감지하는 라이다(lidar)를 포함하는 이동로봇의 동작방법에 있어서, 저장부는, 주행영역에 대한 지도 - 상기 지도는, 복수의 반사체들의 위치를 포함함 - 를 마련하는 단계와, 제어부는, 현재 위치를 인식하여 상기 주행영역 내 이동경로를 따라 주행토록 상기 주행부를 제어하는 단계와, 상기 제어부는, 상기 라이다를 이용하여 상기 복수의 반사체들에 대한 거리 및 방향을 측정하는 단계와, 상기 제어부는, 상기 측정된 상기 복수의 반사체들에 대한 거리 및 방향을 이용하여 현재 위치를 계산하는 단계를 포함하는 측위 정확도가 높은 이동로봇의 동작방법을 제공한다.In addition, the present invention relates to a method of operating a mobile robot including a main body, a driving unit for moving the main body, and a lidar provided in plurality on the main body and detecting an object in front by using laser light. In the following, the storage unit prepares a map for the driving area, the map including the positions of a plurality of reflectors, and the control unit recognizes the current position and drives the vehicle along the movement path within the driving area. A step of controlling the driving unit, the control unit measuring the distance and direction of the plurality of reflectors using the lidar, and the control unit, the measured distance and direction of the plurality of reflectors It provides a method of operating a mobile robot with high positioning accuracy, including calculating a current position using
본 발명의 일 실시예에 따르면, 지도 내 절대적인 위치를 가진 반사체를 인식하고 이를 근거로 이동로봇의 현재 위치를 정확하게 측정할 수 있다.According to an embodiment of the present invention, it is possible to recognize a reflector having an absolute position on a map and accurately measure the current position of the mobile robot based on this.
이때, 이동로봇은 정확한 현재 위치를 측정하기 위해, 현재 위치를 측정하기 위한 별도의 추가 장치를 구비하지 않고, 기존 이동로봇이 구비하고 있는 복수의 라이다를 활용할 수 있다.In this case, in order to accurately measure the current position, the mobile robot may utilize a plurality of lidars included in the existing mobile robot without a separate additional device for measuring the current position.
또한, 소정 패턴으로 복수의 단위반사부재들을 배치하여 반사체를 이루도록 함으로써, 이동로봇의 현재 위치를 보정하지 않고도 절대적인 위치를 측정할 수 있다.In addition, by arranging a plurality of unit reflective members in a predetermined pattern to form a reflector, the absolute position of the mobile robot can be measured without correcting the current position.
도 1은 본 발명의 일 실시예에 따른 이동로봇의 외관 예시도이다.
도 2는 본 발명의 일 실시예에 따른 이동로봇의 구성도이다.
도 3은 본 발명의 일 실시예에 따른 이동로봇의 라이다의 센서범위를 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 이동로봇이 변환시킨 라이다의 센서범위를 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 이동로봇이 반사체를 이용하여 현재 위치를 측정하는 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 반사체의 외관을 나타낸 도면이다.
도 7은 본 발명의 일 실시예에 따른 이동로봇이 다양한 방법의 조합으로 현재 위치를 산출하는 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 이동로봇이 라이다를 이용한 스캔매치법으로 현재 위치를 산출하는 과정을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 이동로봇의 동작방법에 대한 단계별 흐름도이다.1 is an external view of a mobile robot according to an embodiment of the present invention.
2 is a block diagram of a mobile robot according to an embodiment of the present invention.
3 is a view showing the sensor range of the lidar of the mobile robot according to an embodiment of the present invention.
4 is a view showing the sensor range of the lidar converted by the mobile robot according to an embodiment of the present invention.
FIG. 5 is a diagram for explaining a method for a mobile robot to measure a current position using a reflector according to an embodiment of the present invention.
6 is a view showing the appearance of a reflector according to an embodiment of the present invention.
7 is a diagram for explaining a method of calculating a current position by a combination of various methods by a mobile robot according to an embodiment of the present invention.
8 is a diagram for explaining a process of calculating a current position by a mobile robot using a scan-match method using a lidar according to an embodiment of the present invention.
9 is a step-by-step flowchart of a method of operating a mobile robot according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성 요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numbers regardless of reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "part" for the components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical idea disclosed herein is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention , should be understood to include equivalents or substitutes.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When an element is referred to as being “connected” or “connected” to another element, it is understood that it may be directly connected or connected to the other element, but other elements may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.The singular expression includes the plural expression unless the context clearly dictates otherwise.
본 명세서에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this specification, terms such as "comprises" or "have" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.
이동로봇mobile robot
도 1은 본 발명의 일 실시예에 따른 이동로봇의 외관 예시도이고, 도 2는 본 발명의 일 실시예에 따른 이동로봇의 구성도이다.FIG. 1 is an external view illustrating a mobile robot according to an embodiment of the present invention, and FIG. 2 is a configuration diagram of a mobile robot according to an embodiment of the present invention.
도 1 및 2에 도시한 바와 같이, 본 발명의 일 실시예에 따른 측위 정확도가 높은 이동로봇(10)은, 본체와, 상기 본체를 이동시키기 위한 주행부(120)와, 주행영역에 대한 지도를 저장하는 저장부(130)와, 본체에 복수 개가 마련되되 레이저 광을 이용하여 전방의 오브젝트(object)를 감지하는 라이다(lidar)와, 현재 위치를 인식하여 주행영역 내 이동경로를 따라 주행토록 주행부(120)를 제어하는 제어부(110)를 포함할 수 있다. 여기서, 상기 지도는 복수의 반사체(200)들이 배치된 위치를 포함할 수 있고, 제어부(110)는 라이다를 이용하여 본체 주변에 위치한 복수의 반사체들에 대한 거리 및 방향을 측정하고, 측정된 상기 복수의 반사체들에 대한 거리 및 방향을 이용하여 현재 위치를 계산할 수 있다.1 and 2, the
이와 같이 본 발명의 일 실시예에 따른 이동로봇(10)은, 현재 위치를 측정하기 위하여 별도의 추가 장치를 구비하지 않고, 기존에 이동로봇이 구비하고 있는 복수의 라이다를 활용하여, 지도 내 절대적인 위치를 가진 반사체를 인식하고 이를 근거로 현재 위치를 측정함으로써, 현재 자기 위치 측정시 측위 정확도를 향상시킬 수 있다.As described above, the
다만, 도 1 및 2에 도시한 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 측위 정확도가 높은 이동로봇이 구현될 수 있음은 물론이다.However, since the components shown in FIGS. 1 and 2 are not essential, it goes without saying that a mobile robot with high positioning accuracy having more or fewer components than that can be implemented.
이하, 각 구성요소들에 대해 살펴보기로 한다.Hereinafter, each component will be described.
본 발명의 일 실시예에 따른 이동로봇(10)은 본체가, 도 1에 도시한 바와 같이, 소정의 길이와 폭을 갖되 상대적으로 낮은 높이를 가질 수 있다. 즉, 외관을 형성하는 본체는, 높이(height)가 너비(width) 및 길이(length) 보다 짧을 수 있다.As shown in FIG. 1 , the
본 발명의 본체는, 반드시 이에 한하는 것은 아니나, 도 3 등에 도시한 바와 같이, 본체의 측면 중 서로 대향한 두 라이다(141a, 141b)의 거리, 즉 배치된 라이다들 각각에 의해 형성되는 센서범위의 중심들 간의 거리가 소정 거리 이상이 되도록 하는 외관을 가질 수 있다.The body of the present invention is not necessarily limited thereto, but as shown in FIG. 3 and the like, the distance between the two
주행부(120)는 이동로봇(10)의 본체를 이동시키기 위한 적어도 하나의 바퀴와, 바퀴를 회전 구동시키기 위한 모터 따위를 포함한 구동장치를 포함할 수 있다.The
주행부(120)는 전후좌우 방향으로 주행방향을 설정하기 위한 조향장치를 더 포함할 수 있으나, 조향장치를 포함하지 않는 경우 주행부(120)는 조향장치 구비없이 좌우측 각각에 구비된 바퀴의 회전 속도에 차이를 두어 좌측 또는 우측으로 본체의 주행방향을 전환하거나, 본체를 회전구동할 수도 있다.The
도면에 도시하지 않았으나, 본 발명의 일 실시예에 따른 이동로봇(10)은 작동 전반에 필요한 전원을 공급하기 위한 배터리를 더 포함할 수 있고, 여기서 배터리는 충전 가능한 2차전지인 것이 바람직하다.Although not shown in the drawings, the
저장부(130)는 이동로봇(10)을 제어 또는 구동하는 제어 프로그램 및 그에 따른 데이터를 저장할 수 있다. 구체적으로 저장부(130)는 주행영역에 대한 지도(map)를 저장할 수 있고, 이외에 오디오정보, 영상정보, 장애물정보, 위치정보 등을 저장할 수 있다. 또, 저장부(130)는 주행 방식 등을 저장할 수 있다.The
저장부(130)는 비휘발성 메모리를 주로 사용할 수 있으며, 여기서, 비휘발성 메모리(Non-Volatile Memory, NVM, NVRAM)는 전원이 공급되지 않아도 저장된 정보를 계속 유지할 수 있는 저장 장치로서, 일 예로, 롬(ROM), 플래시 메모리(Flash Memory), 마그네틱 컴퓨터 기억 장치(예를 들어, 하드 디스크, 디스켓 드라이브, 마그네틱 테이프), 광디스크 드라이브, 마그네틱 RAM, PRAM 등일 수 있다.The
제어부(110)는 이동로봇(10)의 전반적인 동작을 제어하는 수단으로서, 이동로봇(10)의 각 구성요소와 연동하여 각종 응용 프로그램을 실행하고, 그와 관련된 동작을 수행토록 할 수 있다. 즉 제어부(110)는 이동로봇(10)의 구성요소들을 통해 입출력되는 신호 또는 데이터 등을 처리하거나, 저장부(130)에 저장된 응용 프로그램을 구동함으로써, 이동로봇(10)의 구동을 제어할 수 있다. 또한, 제어부(110)는 저장부(130)에 저장된 응용 프로그램을 구동하기 위하여, 이동로봇(10)의 구성요소들 중 적어도 일부를 제어할 수 있다.The
제어부(110)는 전방 감지 센서나 장애물 감지 센서 등에 의해 검출된 장애물 정보와 적어도 하나의 카메라 센서에 의해 인식된 위치를 이용하여, 도 8에 도시한 것과 같이, 주행영역에 대한 지도를 생성할 수 있다. 이와 달리, 지도는 이동로봇(10)이 자율적으로 주행하며 생성되지 않고, 외부로부터 제공받아 저장부(130)에 저장할 수도 있다. 주행영역에 대한 지도를 생성하는 방법은 공지의 방법에 따르고, 본 발명에서는 특별히 한정하지 않는다.The
본 명세서에서 사용하는 용어 중 '주행영역'은 벽 따위와 같은 장애물에 의해 형성되는 영역으로서 이동로봇(10)이 이동 또는 주행할 수 영역을 가리킬 수 있다.Among the terms used in this specification, 'driving area' is an area formed by an obstacle such as a wall, and may refer to an area in which the
또한, 본 발명의 일 실시예에 따른 지도는, 복수의 반사체(200)들의 위치를 포함할 수 있다. 반사체(200)는 주행영역 내 고정된 위치에 배치된 것으로, 지도는 해당 반사체(200)의 절대적인 위치에 대한 좌표값을 가질 수 있다. 이때, 반사체(200)는 본체에 마련된 라이다(141)의 높이와 상응한 높이에 배치되는 것이 바람직하다.In addition, the map according to an embodiment of the present invention may include positions of the plurality of
반사체(200)는 라이다(141)에 의해 발사된 레이저 광을 반사하는 물체로서, 주행영역 내 장애물이나 벽 따위로부터 반사되는 반사율과는 구분되는 것이어야 한다.The
즉, 제어부(110)는 라이다(141)를 이용하여 파사체에 발사한 레이저 광이 반사되어 돌아올 때, 수신한 레이저 광의 반사율 분포를 계산함으로써, 고반사율을 가진 반사체(200)를 구분 식별할 수 있다.That is, when the laser light emitted to the wave object using the
한편, 제어부(110)는 종래와 같이 본체에 마련된 적어도 하나의 카메라(미도시)에 의해 촬영된 영상데이터를 이용하여 이동로봇(10)의 현재 위치를 인식할 수 있으나, 본 발명의 일 실시예에 따라, 현재 위치에 대한 인식 정확도를 높이기 위해 자세센서(142), 엔코더(143), 라이다(141) 등으로부터 출력되는 신호 또는 데이터를 조합할 수 있다. 이에 대한 자세한 설명은 후술하기로 한다.Meanwhile, the
통신부(150)는 외부의 단말장치 또는 서버와 통신을 수행하기 위한 것으로서, 통신방식은 유선 또는 무선일 수 있고, 일 예로 상기 통신방식은 WLAN(Wireless LAN), WiFi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등과 같은 무선인터넷방식이나 이동통신방식, 또는 라디오주파수(RF)통신, 블루투스(Bluetooth), 적외선통신(IrDA), 지그비(Zigbee) 등 근거리 무선통신방식 중 하나일 수 있다.The
한편, 제어부(110)는 상기 주행영역 내 일 지점에서 타 지점으로 이동경로를 설정하고, 현재 위치를 인식하여 이동경로를 따라 주행토록 주행부(120)를 제어할 수 있다.Meanwhile, the
이를 위해, 이동로봇(10)은 사용자로부터 각종 명령이나 입력을 받기 위한 입력부(미도시)를 포함할 수 있다.To this end, the
입력부는 이동지점설정, 이동경로설정, 또는 수행동작설정 등을 사용자로부터 입력받기 위해 적어도 하나의 버튼 등을 포함할 수 있고, 또한 입력부는 통신부(150)와 연동되어 유무선으로 연결된 외부의 단말장치 또는 서버로부터 각종 명령이나 입력을 전달받을 수도 있다.The input unit may include at least one button to receive input from the user for setting a moving point, setting a moving route, or setting an action to be performed, and the input unit may be linked with the
구체적으로, 사용자는 원격의 단말기를 이용하여 이동로봇(10)에 대하여 주행영역 내 어느 일 지점으로 이동하도록 이동명령을 생성하여 전달하거나, 또는 적어도 두 지점을 설정하여 그에 따라 생성되는 이동경로를 따라 1회 또는 2회 이상 주행토록 주행명령을 생성하여 전달할 수도 있다.Specifically, the user uses a remote terminal to generate and transmit a movement command to the
한편, 전술한 바와 같이, 제어부(110)는 현재 위치를 측정하기 위해, 센서부(140)의 출력신호를 이용할 수 있다.Meanwhile, as described above, the
센서부(140)는 이동하는 이동로봇(10)이 현재 위치를 측정하기 위해 필요한 정보 또는 데이터를 수집하기 위한 것이면 그 종류를 특별히 한정하지 않으나, 구체적인 예로, 라이다(141), 자세센서(142) 및 휠센서(143) 중 어느 하나 또는 이들의 조합일 수 있다.The type of the
라이다(lidar)(141)는 레이저 광을 이용하여 전방의 오브젝트(object)를 감지하는 수단으로서, 광을 조사하여 반사되어온 광 신호를 감지하여 거리 및 방향을 측정함으로써 전방의 오브젝트(object)를 감지할 수 있다. 라이다(141)는 이동로봇(10)의 주행방향, 즉 전방, 후방 또는 좌우측방에 배치될 수 있으나, 그 배치를 특별히 한정하는 것은 아니며, 일 예로, 도 3(a)에 도시한 바와 같이, 평면상의 본체 각 모서리부, 구체적으로 전방의 일측단부(141a)와, 이에 대향하는 후방의 타측단부(141b) 각각에 배치되어, 도 3(b)에 도시한 바와 같은 센서범위(R1, R2)를 가질 수 있다.The
제어부(110)는 본체에 마련된 복수 개의 라이다(141)에 의해 감지된 전방의 반사체(200)와의 거리 및 방향을 측정하고, 이를 이용하여 현재 위치를 계산할 수 있다.The
구체적으로, 도 5는 본 발명의 일 실시예에 따른 이동로봇이 반사체를 이용하여 현재 위치를 측정하는 방법을 설명하기 위한 도면으로서, 도 5(a) 및 5(b)에 도시한 바와 같이, 이동로봇(10)은 주변에 위치한 복수의 반사체(A ~ C)를 식별하고, 이동로봇(10)으로부터 각 반사체(A ~ C)와의 거리 및 방향을 측정하여, 삼각측정법 등을 이용하여 이동로봇(10)의 현재 위치를 산출할 수 있다.Specifically, FIG. 5 is a view for explaining a method for a mobile robot to measure a current position using a reflector according to an embodiment of the present invention. As shown in FIGS. 5(a) and 5(b), The
일 예로, 이동로봇(10)는 현재 위치에서 각 반사체 A ~ C와의 거리를 D1 ~ D3로 한 경우, 반사체들(A ~ C)의 각 좌표인 A(x, y), B(x1, y1), C(x2, y2)을 중심으로 하고 상기 각각의 거리 D1 ~ D3를 반경으로 하였을 때, 각각의 가상의 원이 교차하는 지점을 현재 위치로 산출할 수 있다.As an example, the
제어부(110)가 삼각측정법을 이용하여 현재 위치를 측정할 때, 도 5(b)에 도시한 바와 같이, 3개를 초과한 4개 이상의 반사체를 인식하고, 4개 중 3개의 반사체를 임의로 선택하고 이를 근거로 할 수 있다.When the
다만, 이동로봇(10)의 본체에 마련된 라이다(141)가 복수인 경우, 이동로봇(10)의 현재 측위의 기준이 되는 기준점과, 라이다들(141a, 141b)의 위치는 일치하지 않을 수 있다(도 3 참조).However, when there are a plurality of
따라서, 바람직한 일 실시예에 따라, 복수의 라이다들(141a, 141b) 각각에 의해 형성되는 센서범위(R1, R2)의 중심 위치를 임의의 어느 한 가상지점인 이동로봇(10)의 현재 측위의 기준이 되는 기준점(P)으로 일치하도록 이동시켜, 라이다(141)에 의해 형성되는 센서범위(R3)를 변환시킬 수 있다(도 4(a) 및 4(b) 참조).Therefore, according to a preferred embodiment, the center position of the sensor ranges R1 and R2 formed by each of the plurality of lidars 141a and 141b is an arbitrary virtual point of the current positioning of the
즉, 복수의 라이다들(141a, 141b) 각각이 인식한 전방의 반사체들과의 거리를 측정할 때, 어느 한 기준점을 두지 않으면, 측위 대상인 이동로봇(10)의 현재 위치가 정확하지 않거나, 동일 지점에서 측정때마다 다른 결과가 도출될 수 있는 문제가 있기 때문에, 기준점(P)을 설정하고 각 라이다들(141a, 141b)에 의해 형성되는 센서범위(R1, R2)의 중심을 상기 기준점(P)으로 일치시킴으로써, 측위 대상인 이동로봇(10)의 현재 위치를 일관적으로 유지할 수 있다.That is, when measuring the distance to the front reflectors recognized by each of the plurality of lidars 141a and 141b, if no reference point is placed, the current position of the
이때, 상기 기준점(P)은, 전술한 바와 같이, 측위 대상인 이동로봇(10)의 현재 위치좌표의 대상지점일 수 있기 때문에, 이동로봇(10) 본체 상의 어느 한 지점이어도 무방하나, 바람직하게는 평면상의 본체 중심 위치일 수 있다.In this case, since the reference point P may be a target point of the current position coordinates of the
한편, 센서부(140) 중 자세센서(142)(또는 관성센서(IMU; Inertia Measurement Unit))는 이동로봇(10)의 자세 또는 관성을 감지하기 위한 수단으로서, 가속도센서(acceleration sensor) 및 자이로센서(gyro sensor) 중 어느 하나 또는 이들의 조합으로 이루어질 수 있다. 제어부(110)는 이를 이용하여 이동 거리 및 방향을 연산할 수 있어, 기 인식되거나 설정된 최초 위치를 기준으로 한 상대적인 이동 거리 및 방향을 적용하여 현재 위치를 파악할 수 있다.On the other hand, the posture sensor 142 (or an inertia measurement unit (IMU)) of the
가속도센서는 이동로봇(10)의 이동속도 변화를 감지할 수 있으며, 일 예로 가속도센서는 바퀴의 인접 위치에 부착되어, 바퀴의 미끄러짐이나 공회전을 검출할 수 있다. 즉 가속도센서를 통해 검출된 가속도를 이용하여 속도를 연산하고, 지령속도와 비교하여 그 차이에 따라 바닥면에 이동로봇(10)의 미끌어짐을 감지할 수도 있다.The acceleration sensor may detect a change in the moving speed of the
자이로센서는 이동로봇(10)이 주행할 때 회전방향 및/또는 회전각을 감지할 수 있다. 자이로센서는 이동로봇(10)의 각속도를 검출하여 각속도에 비례하는 전압 값을 출력할 수 있고, 제어부(110)는 이를 이용하여 이동로봇(10)의 회전방향 및/또는 회전각을 산출할 수 있다.The gyro sensor may detect a rotational direction and/or a rotational angle when the
또한, 센서부(140) 중 휠센서(wheel sensor)(143)는 바퀴에 연결되어 바퀴의 회전수를 감지할 수 있다. 휠센서는 일 예로 엔코더(encoder)(또는 로터리 엔코더(rotary encoder))일 수 있으며, 엔코더는 이동로봇(10)이 주행할 때, 적어도 어느 하나의 바퀴 회전수를 감지하여 출력할 수 있다.In addition, a
제어부(110)는 휠센서(143)에 의해 감지된 바퀴의 회전수를 이용하여 회전속도 및 이동로봇(10)의 이동속도를 산출할 수 있다. 또한, 제어부(110)는 휠센서(143)를 이용하여 산출한 이동속도와 지령속도를 비교하고 그 차이에 따라 바닥면에 이동로봇(10)의 미끌어짐을 감지할 수도 있다.The
다만, 자세센서(142) 및/또는 휠센서(143)에 의해 출력되는 정보를 이용하여 최초 위치로부터의 상대적인 위치를 연산하기 때문에, 외력에 의한 본체의 위치가 바뀌거나 바닥의 상태에 따라 미끄러짐이 발생하는 경우 등에는 현재 측위값에 오류가 발생할 수 있는 문제가 있다.However, since the relative position from the initial position is calculated using the information output by the
한편, 제어부(110)는 센서부(140) 중 라이다(141)를 이용한 스캔매치법(scan-matching)을 이용하여 현재 위치를 측정할 수 있다.Meanwhile, the
구체적인 일 예로, 도 8(a)에 도시한 바와 같이, 저장부(130)에 저장된 지도(map)의 경계(b1)와, 라이다(141)를 이용하여 인식된 주변의 장애물 또는 벽의 경계(b2)가 서로 일치하지 않아, 제어부(110)는 현재 인식하고 있는 이동로봇(10)의 위치 및 자세에 오류가 있음을 판단할 수 있고, 상기 라이다(141)를 이용하여 인식된 주변의 장애물 또는 벽의 경계(b2)가 기 저장된 지도(map)의 경계(b1)와 일치(도 8(b) 참조)하도록 위치 및 자세를 보정할 수 있다.As a specific example, as shown in FIG. 8( a ), the boundary b1 of the map stored in the
다만, 도 8(a) 및 8(b)에 도시한 바와 같이, 지도(map)의 경계(b1, b2)에 특징점이 있으면, 이동로봇(10)의 위치 및 자세 보정이 가능하나, 지도(map)가 일자형의 복도 등인 경우에는 위치 및 자세 보정이 어려운 문제가 있다.However, as shown in FIGS. 8(a) and 8(b), if there are feature points at the boundaries b1 and b2 of the map, the position and posture of the
따라서, 본 발명의 일 실시예에 따라 제어부(110)는, 도 7에 도시한 바와 같이, 자세센서(142)를 이용한 제1 측위결과와, 휠센서(143)를 이용한 제2 측위결과와, 라이다(141)를 이용한 스캔매치법에 따른 제3 측위결과와, 라이다(141)를 이용한 삼각측량법에 따른 제4 측위결과의 조합으로 이동로봇(10)의 현재 위치를 정확하게 측정할 수 있다.Therefore, according to an embodiment of the present invention, the
여기서, 제1 및 제2 측위결과는 기 인식되거나 설정된 최초위치를 기준으로 한 상대적인 것이고, 제3 및 제4 측위결과는 상기 최초위치와 무관하게 측정된 절대적인 것이기 때문에, 제어부(110)는 제1 및 제2 측위결과 중 적어도 어느 하나에 의한 현재 위치에 제3 및 제4 측위결과 중 적어도 어느 하나를 적용하여, 상기 상대적으로 추정된 현재 측위 결과에 추정된 바이어스(M1)를 제거(M2)하는 것이 바람직하다.Here, since the first and second positioning results are relative based on a previously recognized or set initial position, and the third and fourth positioning results are absolute values measured regardless of the initial position, the
한편, 도 6은 본 발명의 일 실시예에 따른 반사체의 외관을 나타낸 도면이다.Meanwhile, FIG. 6 is a view showing an appearance of a reflector according to an embodiment of the present invention.
도 6에 도시한 바와 같이, 본 발명의 일 실시예에 따른 반사체(200)는, 라이다(141)의 피사체들 중 반사율이 높아 다른 것들과 구분인식가능한 물체로서, 다양한 각도에서 이동로봇(10)이 인식할 수 있도록 다각기둥, 바람직하게는 원기둥 상의 표면 외주면에 레이저 광을 반사시킬 수 있는 부재가 부착된 것일 수 있다.As shown in FIG. 6 , the
이때, 상기 반사체(200)는, 바람직한 일 실시예에 따라, 일정 패턴을 갖도록 복수의 단위반사부재(201~203)가 그룹화되어 배치됨으로써, 제어부(110)는 라이다(141)를 통해 단위반사부재들(201~203)을 식별하고 그 패턴을 인식할 수 있다. 상기 복수의 단위반사부재(201~203)는, 일 예로, 도 6에 도시한 바와 같이, 단위반사부재들(201~203)이 가로무늬를 갖도록 배치되거나 또는 이와 달리 세로무늬를 갖도록 배치되어 마치 바코드(bar code) 형태를 가질 수 있고, 또는 가로무늬와 세로무늬가 조합되어 격자 무늬 형태를 가질 수도 있다.At this time, in the
이에 따라, 단위반사부재들(201~203) 간에는 소정 간격만큼 서로 이격되되, 그 간격이 위치(또는 높이)에 따라 다르도록 배치됨으로써, 이로 인해 형성되는 패턴은 고유한 패턴이 될 수 있다. 이때, 그 간격을 가질 수 있도록 단위반사부재(201~203)들 사이에는 단위반사부재(201~203)와 다른 반사율을 가진 또는 반사되지 않는 단위비반사부재(210~240)가 배치될 수 있다.Accordingly, the unit
결국, 제어부(110)는 라이다(141)를 이용하여 단위반사부재들(201~203) 및 단위비반사부재(210~240)의 배치 형태 및/또는 단위반사부재들(201~203) 및 단위비반사부재(210~240)의 폭 등에 따라 형성되는 패턴을 인식함으로써, 고유의 반사체(200)를 식별할 수 있다.As a result, the
이를 이용하여, 제어부(110)는 라이다(141)를 통해 인식된 고유한 절대 위치의 반사체(200)들에 대한 측정 거리 및 측정 방향을 이용함으로써, 이동로봇(10)의 현재 절대 위치를 매우 정확하게 인식할 수 있는 효과가 있다.Using this, the
이때, 최외곽에 배치된 단위반사부재들(201, 203)의 외측에도 소정의 너비를 가진 단위비반사부재(210~240)들이 배치될 수 있고, 또한 반사체(200)에 배치된 복수의 단위비반사부재(210~240)들이 모두 동일한 반사율을 갖지 않도록 함으로써, 이동로봇(10)이 식별할 수 있는 고유 반사체(200)의 종류를 더욱 다양화할 수 있다. 육안상 동일 패턴이더라도 단위비반사부재(210~240)들의 서로 다른 반사율에 의해 이동로봇(10)은 서로 다른 반사체(200)로 식별할 수 있게 된다.In this case, unit
주행영역이 매우 넓은 경우에는 반사체(200)가 다수 배치되는 것이 바람직하지만, 라이다(141)의 감도가 낮은 경우, 다수의 반사체들(200)을 구분하기 위해 위와 같은 다양한 조합은 그 필요성이 요구된다.When the driving area is very wide, it is preferable that a plurality of
측위 정확도가 높은 이동로봇의 동작방법Operation method of mobile robot with high positioning accuracy
도 9는 본 발명의 일 실시예에 따른 이동로봇의 동작방법에 대한 단계별 흐름도이다.9 is a step-by-step flowchart of a method of operating a mobile robot according to an embodiment of the present invention.
도 9에 도시한 바와 같이, 본 발명의 일 실시예에 따른 측위 정확도가 높은 이동로봇의 동작방법은, 저장부(130)가 주행영역에 대한 지도를 마련하는 단계(S110)와, 제어부(110)가 현재 위치를 인식하여 주행영역 내 이동경로를 따라 주행토록 주행부(120)를 제어하는 단계(S120)와, 제어부(110)가 라이다(141)를 이용하여 복수의 반사체(200)들에 대한 거리 및 방향을 측정하는 단계(S130)와, 제어부(110)가 측정된 복수의 반사체(200)들에 대한 거리 및 방향을 이용하여 현재 위치를 계산하는 단계(S140)를 포함할 수 있다.As shown in FIG. 9 , in the operating method of a mobile robot having high positioning accuracy according to an embodiment of the present invention, the
이에 따라 본 발명의 일 실시예에 따른 이동로봇(10)은, 기존에 이동로봇이 구비하고 있는 복수의 라이다를 활용하여, 지도 내 절대적인 위치를 가진 반사체를 인식하고, 이를 근거로 현재 위치를 측정함으로써, 측위 정확도를 향상시킬 수 있다.Accordingly, the
상기 측위 정확도가 높은 이동로봇의 동작방법에 포함된 각 단계별 설명은 전술한 것과 중복되므로, 이에 대한 설명은 생략하고 그에 갈음하기로 한다.Since the description of each step included in the method of operating the mobile robot having high positioning accuracy overlaps with the above, the description thereof will be omitted and will be replaced therewith.
컴퓨터 판독 가능한 기록 매체computer readable recording medium
이상 설명된 본 발명의 일 실시예에 따른 측위 정확도가 높은 이동로봇의 동작방법은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. The operation method of the mobile robot with high positioning accuracy according to an embodiment of the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium.
상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the computer software field. Examples of the computer-readable recording medium include hard disks, magnetic media such as floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floppy disks. media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules for carrying out the processing according to the present invention, and vice versa.
이상으로 본 발명의 바람직한 실시예를 도면을 참고하여 상세하게 설명하였다. 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다.As above, preferred embodiments of the present invention have been described in detail with reference to the drawings. The description of the present invention is for illustrative purposes, and those skilled in the art to which the present invention pertains will understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention.
따라서, 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미, 범위 및 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Accordingly, the scope of the present invention is indicated by the claims described later rather than the detailed description, and all changes or modifications derived from the meaning, scope, and equivalent concept of the claims are included in the scope of the present invention. should be interpreted
110: 제어부 120: 주행부
130: 저장부 140: 센서부
141: 라이다 142: 자세센서
143: 휠센서 150: 통신부
200: 반사체 201~203: 단위반사부재
210~240: 단위비반사부재110: control unit 120: driving unit
130: storage unit 140: sensor unit
141: lidar 142: attitude sensor
143: wheel sensor 150: communication unit
200:
210 to 240: unit non-reflective member
Claims (8)
상기 본체를 이동시키기 위한 주행부;
주행영역에 대한 지도 - 상기 지도는, 복수의 반사체들의 위치를 포함함 - 를 저장하는 저장부;
상기 본체의 측면 상에 주행방향을 향하여 복수 개가 마련되되, 레이저 광을 이용하여 전방의 오브젝트를 감지하는 라이다(lidar); 및
현재 위치를 인식하여 상기 주행영역 내 이동경로를 따라 주행토록 상기 주행부를 제어하는 제어부;
를 포함하고,
상기 제어부는, 카메라가 아닌 상기 라이다를 이용하여 상기 복수의 반사체들에 대한 거리 및 방향을 측정하고, 측정된 상기 복수의 반사체들에 대한 거리 및 방향을 이용하여 현재 위치를 계산하되,
상기 반사체는, 다각기둥 또는 원기둥의 표면 외주면에 레이저 광을 반사시킬 수 있는 적어도 하나의 단위반사부재와, 레이저 광을 반사시키지 않는 적어도 하나의 단위비반사부재가 서로 다른 높이로 교대 배치되어 형성된 일정 패턴을 갖고,
상기 제어부는 상기 패턴을 근거로 상기 반사체를 식별하는 것을 특징으로 하는 측위 정확도가 높은 이동로봇.main body;
a driving unit for moving the main body;
a storage unit for storing a map of the driving area, the map including positions of a plurality of reflectors;
A plurality of lidars are provided on the side surface of the main body in the direction of travel, and for detecting an object in front by using laser light; and
a control unit for recognizing a current position and controlling the driving unit to travel along a movement path within the driving area;
including,
The control unit measures the distance and direction of the plurality of reflectors using the lidar instead of the camera, and calculates the current location using the measured distance and direction of the plurality of reflectors,
The reflector includes at least one unit reflective member capable of reflecting laser light on the outer circumferential surface of a polygonal column or cylinder, and at least one unit non-reflecting member that does not reflect laser light, alternately arranged at different heights. have a pattern,
The control unit is a mobile robot with high positioning accuracy, characterized in that for identifying the reflector based on the pattern.
상기 제어부는,
상기 라이다를 이용하여 상기 반사체에 의해 반사된 상기 레이저 광의 반사율을 근거로 상기 반사체를 인식하여, 측정된 상기 복수의 반사체들에 대한 거리 및 방향을 근거로 한 삼각측량법으로 현재 위치를 계산하는 것을 특징으로 하는 측위 정확도가 높은 이동로봇.The method of claim 1,
The control unit is
Recognizing the reflector based on the reflectivity of the laser light reflected by the reflector using the lidar, and calculating the current position by triangulation based on the measured distances and directions of the plurality of reflectors A mobile robot with high positioning accuracy.
상기 제어부는,
자세센서를 이용한 제1 측위결과와, 엔코더를 이용한 제2 측위결과와, 상기 라이다를 이용한 스캔매치법에 따른 제3 측위결과와, 상기 라이다를 이용한 상기 삼각측량법에 따른 제4 측위결과의 조합으로 현재 위치를 계산하는 것을 특징으로 하는 측위 정확도가 높은 이동로봇.3. The method of claim 2,
The control unit is
The first positioning result using the posture sensor, the second positioning result using the encoder, the third positioning result according to the scan-match method using the lidar, and the fourth positioning result according to the triangulation method using the lidar A mobile robot with high positioning accuracy, characterized in that it calculates the current position in combination.
상기 제어부는,
상기 복수의 라이다 각각에 의해 형성되는 센서범위의 중심을 상기 이동로봇의 현재 측위의 기준이 되는 기준점으로 이동시켜, 상기 센서범위를 변환시키는 것을 특징으로 하는 측위 정확도가 높은 이동로봇.The method of claim 1,
The control unit is
A mobile robot with high positioning accuracy, characterized in that the sensor range is converted by moving the center of the sensor range formed by each of the plurality of lidars to a reference point that is a reference point for the current positioning of the mobile robot.
상기 기준점은, 평면상의 상기 본체의 중심 위치인 것을 특징으로 하는 측위 정확도가 높은 이동로봇.7. The method of claim 6,
The reference point is a mobile robot with high positioning accuracy, characterized in that it is the center position of the main body on a plane.
저장부는, 주행영역에 대한 지도 - 상기 지도는, 복수의 반사체들의 위치를 포함함 - 를 마련하는 단계;
제어부는, 현재 위치를 인식하여 상기 주행영역 내 이동경로를 따라 주행토록 상기 주행부를 제어하는 단계; 및
상기 제어부는, 카메라가 아닌 상기 라이다를 이용하여 상기 복수의 반사체들에 대한 거리 및 방향을 측정하고, 상기 측정된 상기 복수의 반사체들에 대한 거리 및 방향을 이용하여 현재 위치를 계산하는 단계;
를 포함하되,
상기 반사체는, 다각기둥 또는 원기둥의 표면 외주면에 레이저 광을 반사시킬 수 있는 적어도 하나의 단위반사부재와, 레이저 광을 반사시키지 않는 적어도 하나의 단위비반사부재가 서로 다른 높이로 교대 배치되어 형성된 일정 패턴을 갖고,
상기 제어부는 상기 패턴을 근거로 상기 반사체를 식별하는 것을 특징으로 하는 측위 정확도가 높은 이동로봇의 동작방법.Operation of a mobile robot comprising a main body, a driving unit for moving the main body, and a lidar provided on a side surface of the main body in a driving direction to detect an object in front by using laser light In the method,
The storage unit may include: preparing a map for the driving area, the map including positions of a plurality of reflectors;
controlling, by the controller, the driving unit to recognize a current location and to travel along a movement path within the driving area; and
The control unit may include measuring distances and directions of the plurality of reflectors using the lidar instead of a camera, and calculating a current location using the measured distances and directions of the plurality of reflectors;
including,
The reflector includes at least one unit reflective member capable of reflecting laser light on the outer circumferential surface of a polygonal column or cylinder, and at least one unit non-reflecting member that does not reflect laser light, alternately arranged at different heights. have a pattern,
The method of operating a mobile robot with high positioning accuracy, characterized in that the control unit identifies the reflector based on the pattern.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200038170A KR102341712B1 (en) | 2020-03-30 | 2020-03-30 | Robot with high accuracy position determination, and method for operating the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200038170A KR102341712B1 (en) | 2020-03-30 | 2020-03-30 | Robot with high accuracy position determination, and method for operating the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210121474A KR20210121474A (en) | 2021-10-08 |
KR102341712B1 true KR102341712B1 (en) | 2021-12-20 |
Family
ID=78115779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200038170A KR102341712B1 (en) | 2020-03-30 | 2020-03-30 | Robot with high accuracy position determination, and method for operating the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102341712B1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114413903B (en) * | 2021-12-08 | 2024-07-09 | 上海擎朗智能科技有限公司 | Positioning method for multiple robots, robot distribution system and computer readable storage medium |
KR102687041B1 (en) * | 2021-12-16 | 2024-07-23 | (주)원익로보틱스 | Floor drawing robot with high precision |
WO2023143019A1 (en) * | 2022-01-30 | 2023-08-03 | 苏州简单有为科技有限公司 | Sweeping robot control method and system, and storage medium |
KR102479774B1 (en) * | 2022-09-15 | 2022-12-21 | 주식회사 라스테크 | Humanoid robot having robot arm |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170296021A1 (en) * | 2016-04-14 | 2017-10-19 | Beijing Xiaomi Mobile Software Co., Ltd. | Autonomous cleaning device |
KR102031348B1 (en) * | 2018-04-13 | 2019-11-08 | 주식회사 랜도르아키텍쳐 | Autonomous Working System, Method and Computer Readable Recording Medium |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100826828B1 (en) | 2006-11-29 | 2008-05-06 | 한국산업기술대학교산학협력단 | System for verifying position of the robot using rfid and method therefor |
-
2020
- 2020-03-30 KR KR1020200038170A patent/KR102341712B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170296021A1 (en) * | 2016-04-14 | 2017-10-19 | Beijing Xiaomi Mobile Software Co., Ltd. | Autonomous cleaning device |
KR102031348B1 (en) * | 2018-04-13 | 2019-11-08 | 주식회사 랜도르아키텍쳐 | Autonomous Working System, Method and Computer Readable Recording Medium |
Also Published As
Publication number | Publication date |
---|---|
KR20210121474A (en) | 2021-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102341712B1 (en) | Robot with high accuracy position determination, and method for operating the same | |
US10444758B2 (en) | Autonomous traveling device | |
JP6599543B2 (en) | Automated guided vehicle | |
JP4195894B2 (en) | Docking system | |
JP5278283B2 (en) | Autonomous mobile device and control method thereof | |
JP2001515237A (en) | Docking method of autonomous motion unit using guidance beam | |
US9789607B1 (en) | Achieving a target gait in a legged robot based on steering commands | |
Yoshida et al. | A sensor platform for outdoor navigation using gyro-assisted odometry and roundly-swinging 3D laser scanner | |
US20230341862A1 (en) | Autonomous Movement Device, Autonomous Movement Method, And Program | |
JP2009217333A (en) | Mobile robot and operation control method thereof | |
JP5517104B2 (en) | Moving body | |
WO2018179960A1 (en) | Mobile body and local position estimation device | |
KR20170009103A (en) | Autonomously traveling robot and navigation method thereof | |
JP2019053391A (en) | Mobile body | |
KR20180127709A (en) | Mobile Robot and Controlling Method Of the Same | |
JP2009237851A (en) | Mobile object control system | |
US20220351011A1 (en) | Printing systems | |
JP4962255B2 (en) | Self-propelled device | |
JP4377346B2 (en) | Mobile robot | |
Csaba et al. | Differences between Kinect and structured lighting sensor in robot navigation | |
RU2749202C1 (en) | Method for planning robot movement and mobile robot | |
US12055938B2 (en) | Mobile robot, mobile robot control system, and mobile robot control method | |
US12089793B2 (en) | Autonomously traveling mobile robot and traveling control method therefor | |
JP2021056764A (en) | Movable body | |
JP2009093514A (en) | Self-propelled apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |