KR20210121474A - Robot with high accuracy position determination, and method for operating the same - Google Patents

Robot with high accuracy position determination, and method for operating the same Download PDF

Info

Publication number
KR20210121474A
KR20210121474A KR1020200038170A KR20200038170A KR20210121474A KR 20210121474 A KR20210121474 A KR 20210121474A KR 1020200038170 A KR1020200038170 A KR 1020200038170A KR 20200038170 A KR20200038170 A KR 20200038170A KR 20210121474 A KR20210121474 A KR 20210121474A
Authority
KR
South Korea
Prior art keywords
mobile robot
unit
reflectors
lidar
main body
Prior art date
Application number
KR1020200038170A
Other languages
Korean (ko)
Other versions
KR102341712B1 (en
Inventor
김대현
김현수
Original Assignee
김대현
김현수
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김대현, 김현수 filed Critical 김대현
Priority to KR1020200038170A priority Critical patent/KR102341712B1/en
Publication of KR20210121474A publication Critical patent/KR20210121474A/en
Application granted granted Critical
Publication of KR102341712B1 publication Critical patent/KR102341712B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention provides a moving robot with high determination accuracy, which comprises: a main body; a driving unit for moving the main body; a storage unit storing a map of a driving area, wherein the map includes a position of a plurality of reflecting bodies; a plurality of lidars provided in the main body and sensing an object on a front side by using laser light; and a control unit recognizing a current position to control the driving unit to drive along a moving path inside the driving area. The control unit measures a distance and a direction with respect to the plurality of reflecting bodies by using the lidar and calculates a current position by using the measured distance and the measured direction with respect to the plurality of reflecting bodies. The moving robot can accurately measure the current position of the moving robot.

Description

측위 정확도가 높은 이동로봇 및 이의 동작방법 {ROBOT WITH HIGH ACCURACY POSITION DETERMINATION, AND METHOD FOR OPERATING THE SAME}Mobile robot with high positioning accuracy and its operation method {ROBOT WITH HIGH ACCURACY POSITION DETERMINATION, AND METHOD FOR OPERATING THE SAME}

본 발명은 측위 정확도가 높은 이동로봇 및 이의 동작방법에 관한 것으로서, 보다 상세하게는 이동로봇이 전방 장애물을 감지하기 위해 마련된 라이다를 이용하여 측위 정확도를 향상시킬 수 있는 측위 정확도가 높은 이동로봇 및 이의 동작방법에 관한 것이다.The present invention relates to a mobile robot with high positioning accuracy and an operating method thereof, and more particularly, to a mobile robot with high positioning accuracy, in which the mobile robot can improve positioning accuracy by using a lidar provided to detect an obstacle in front, and It relates to a method of its operation.

최근 자율주행기술이 접목된 이동로봇에 대한 연구가 활발하게 이루어지고 있다. 이러한 자율주행을 하는 이동로봇은 통상 주행영역(또는 임무영역) 내에서 자유롭게 이동하기 위하여 자기의 현재 위치를 정확히 측정할 수 있어야 목표위치로 정확히 이동할 수 있게 된다.Recently, research on mobile robots incorporating autonomous driving technology has been actively conducted. In order to move freely within a normal driving area (or mission area), a mobile robot that performs such autonomous driving must accurately measure its current position to be able to accurately move to a target position.

그러나 주행영역 내에서 이동로봇이 이동할 때, 다양한 외부 조건 등에 의하여 주행 중 미끄러짐이 발생하거나, 외력 등으로 인하여 강제로 위치가 변화하거나, 바닥의 평탄도가 일정하지 않은 경우 등에는 이동로봇이 측정한 현재 위치에 오차(error)가 발생할 수 있는 문제가 있다.However, when the mobile robot moves within the driving area, if slip occurs during driving due to various external conditions, forcibly changed position due to external force, etc., or if the floor is not flat, the measured There is a problem that an error may occur in the current position.

측위에 오류가 발생한 이동로봇은 지령에 따른 이동뿐 아니라 이로 인한 다양한 문제를 야기케 한다.A mobile robot with an error in positioning causes various problems as well as movement according to commands.

종래에는 이동로봇의 현재 위치를 정확히 측위하기 위해, 다양한 방법들이 알려져 있으나, 본 발명자는 이동로봇의 현재 위치를 측정하기 위한 새로운 방법을 제시하고자 한다.Conventionally, various methods have been known for accurately positioning the current position of the mobile robot, but the present inventor intends to propose a new method for measuring the current position of the mobile robot.

KRUS 10-082682810-0826828 B1B1

본 발명은, 기존에 이동로봇이 구비하고 있는 복수의 라이다를 활용하여, 지도 내 절대적인 위치를 가진 반사체를 인식하고, 이를 근거로 측위 정확도가 높은 이동로봇 및 이의 동작방법을 제공하고자 한다.An object of the present invention is to provide a mobile robot with high positioning accuracy and an operating method thereof by recognizing a reflector having an absolute position on a map by utilizing a plurality of lidars that are included in the existing mobile robot.

상기 과제를 해결하기 위하여, 본 발명은 본체, 상기 본체를 이동시키기 위한 주행부, 주행영역에 대한 지도 - 상기 지도는, 복수의 반사체들의 위치를 포함함 - 를 저장하는 저장부, 상기 본체에 복수 개가 마련되되, 레이저 광을 이용하여 전방의 오브젝트를 감지하는 라이다(lidar), 현재 위치를 인식하여 상기 주행영역 내 이동경로를 따라 주행토록 상기 주행부를 제어하는 제어부를 포함하고, 상기 제어부는, 상기 라이다를 이용하여 상기 복수의 반사체들에 대한 거리 및 방향을 측정하고, 측정된 상기 복수의 반사체들에 대한 거리 및 방향을 이용하여 현재 위치를 계산하는 것을 특징으로 하는 측위 정확도가 높은 이동로봇을 제공한다.In order to solve the above problems, the present invention provides a main body, a driving unit for moving the main body, and a map for the driving area - the map includes a location of a plurality of reflectors - a storage unit for storing a plurality of objects in the main body A dog is provided, comprising: a lidar that detects an object in front by using laser light; A mobile robot with high positioning accuracy, characterized in that it measures the distance and direction of the plurality of reflectors using the lidar, and calculates the current position using the measured distance and direction of the plurality of reflectors provides

일 실시예에 따라, 상기 제어부는, 상기 라이다를 이용하여 상기 반사체에 의해 반사된 상기 레이저 광의 반사율을 근거로 상기 반사체를 인식하여, 측정된 상기 복수의 반사체들에 대한 거리 및 방향을 근거로 한 삼각측량법으로 현재 위치를 계산할 수 있다.According to an embodiment, the controller recognizes the reflector based on the reflectance of the laser light reflected by the reflector using the lidar, and based on the measured distances and directions for the plurality of reflectors A triangulation method can calculate the current position.

일 실시예에 따라, 상기 반사체는, 복수의 단위반사부재가 일정 패턴으로 그룹화된 것을 특징으로 하고, 상기 제어부는, 상기 패턴을 근거로 상기 반사체를 식별할 수 있다.According to an embodiment, the reflector is characterized in that a plurality of unit reflective members are grouped in a predetermined pattern, and the controller may identify the reflector based on the pattern.

일 실시예에 따라, 상기 반사체는, 다각기둥 또는 원기둥의 형태이고, 상기 패턴은, 가로무늬의 바코드 패턴일 수 있다.According to an embodiment, the reflector may be in the form of a polygonal prism or a cylinder, and the pattern may be a bar code pattern of a horizontal pattern.

일 실시예에 따라, 상기 제어부는, 자세센서를 이용한 제1 측위결과와, 엔코더를 이용한 제2 측위결과와, 상기 라이다를 이용한 스캔매치법에 따른 제3 측위결과와, 상기 라이다를 이용한 상기 삼각측량법에 따른 제4 측위결과의 조합으로 현재 위치를 계산할 수 있다.According to an embodiment, the control unit includes a first positioning result using an attitude sensor, a second positioning result using an encoder, a third positioning result according to a scan match method using the lidar, and the lidar using the lidar. The current position can be calculated by combining the fourth positioning result according to the triangulation method.

일 실시예에 따라, 상기 제어부는, 상기 복수의 라이다 각각에 의해 형성되는 센서범위의 중심을 상기 이동로봇의 현재 측위의 기준이 되는 기준점으로 이동시켜, 상기 센서범위를 변환시킬 수 있다.According to an embodiment, the control unit may convert the sensor range by moving the center of the sensor range formed by each of the plurality of lidar to a reference point serving as a reference point for the current positioning of the mobile robot.

일 실시예에 따라, 상기 기준점은, 평면상의 상기 본체의 중심 위치일 수 있다.According to an embodiment, the reference point may be a center position of the main body on a plane.

또한, 본 발명은, 본체와, 상기 본체를 이동시키기 위한 주행부와, 상기 본체에 복수 개가 마련되되 레이저 광을 이용하여 전방의 오브젝트를 감지하는 라이다(lidar)를 포함하는 이동로봇의 동작방법에 있어서, 저장부는, 주행영역에 대한 지도 - 상기 지도는, 복수의 반사체들의 위치를 포함함 - 를 마련하는 단계와, 제어부는, 현재 위치를 인식하여 상기 주행영역 내 이동경로를 따라 주행토록 상기 주행부를 제어하는 단계와, 상기 제어부는, 상기 라이다를 이용하여 상기 복수의 반사체들에 대한 거리 및 방향을 측정하는 단계와, 상기 제어부는, 상기 측정된 상기 복수의 반사체들에 대한 거리 및 방향을 이용하여 현재 위치를 계산하는 단계를 포함하는 측위 정확도가 높은 이동로봇의 동작방법을 제공한다.In addition, the present invention provides a method of operating a mobile robot including a main body, a driving unit for moving the main body, and a lidar provided in plurality on the main body and detecting an object in front by using laser light. In the following, the storage unit prepares a map for the driving area, the map including the positions of a plurality of reflectors, and the control unit recognizes the current position and drives the vehicle along the movement path within the driving area. A step of controlling the driving unit, the control unit measuring the distance and direction of the plurality of reflectors using the lidar, and the control unit, the measured distance and direction of the plurality of reflectors It provides a method of operating a mobile robot with high positioning accuracy, including calculating a current position using

본 발명의 일 실시예에 따르면, 지도 내 절대적인 위치를 가진 반사체를 인식하고 이를 근거로 이동로봇의 현재 위치를 정확하게 측정할 수 있다.According to an embodiment of the present invention, it is possible to recognize a reflector having an absolute position on a map and accurately measure the current position of the mobile robot based on this.

이때, 이동로봇은 정확한 현재 위치를 측정하기 위해, 현재 위치를 측정하기 위한 별도의 추가 장치를 구비하지 않고, 기존 이동로봇이 구비하고 있는 복수의 라이다를 활용할 수 있다.In this case, in order to accurately measure the current position, the mobile robot may utilize a plurality of lidars included in the existing mobile robot without a separate additional device for measuring the current position.

또한, 소정 패턴으로 복수의 단위반사부재들을 배치하여 반사체를 이루도록 함으로써, 이동로봇의 현재 위치를 보정하지 않고도 절대적인 위치를 측정할 수 있다.In addition, by arranging a plurality of unit reflective members in a predetermined pattern to form a reflector, the absolute position of the mobile robot can be measured without correcting the current position.

도 1은 본 발명의 일 실시예에 따른 이동로봇의 외관 예시도이다.
도 2는 본 발명의 일 실시예에 따른 이동로봇의 구성도이다.
도 3은 본 발명의 일 실시예에 따른 이동로봇의 라이다의 센서범위를 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 이동로봇이 변환시킨 라이다의 센서범위를 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 이동로봇이 반사체를 이용하여 현재 위치를 측정하는 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 반사체의 외관을 나타낸 도면이다.
도 7은 본 발명의 일 실시예에 따른 이동로봇이 다양한 방법의 조합으로 현재 위치를 산출하는 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 이동로봇이 라이다를 이용한 스캔매치법으로 현재 위치를 산출하는 과정을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 이동로봇의 동작방법에 대한 단계별 흐름도이다.
1 is an exemplary view of the appearance of a mobile robot according to an embodiment of the present invention.
2 is a block diagram of a mobile robot according to an embodiment of the present invention.
3 is a view showing the sensor range of the lidar of the mobile robot according to an embodiment of the present invention.
4 is a view showing the sensor range of the lidar converted by the mobile robot according to an embodiment of the present invention.
FIG. 5 is a diagram for explaining a method for a mobile robot to measure a current position using a reflector according to an embodiment of the present invention.
6 is a view showing the appearance of a reflector according to an embodiment of the present invention.
7 is a view for explaining a method of calculating a current position by a combination of various methods by a mobile robot according to an embodiment of the present invention.
8 is a diagram for explaining a process of calculating a current position by a mobile robot using a scan-match method using a lidar according to an embodiment of the present invention.
9 is a step-by-step flowchart of a method of operating a mobile robot according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성 요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and overlapping descriptions thereof will be omitted. The suffixes "module" and "part" for the components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in the present specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical spirit disclosed herein is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention , should be understood to include equivalents or substitutes.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it is understood that the other component may be directly connected or connected to the other component, but other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that no other element is present in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.The singular expression includes the plural expression unless the context clearly dictates otherwise.

본 명세서에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this specification, terms such as "comprises" or "have" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

이동로봇mobile robot

도 1은 본 발명의 일 실시예에 따른 이동로봇의 외관 예시도이고, 도 2는 본 발명의 일 실시예에 따른 이동로봇의 구성도이다.1 is an exemplary view of the exterior of a mobile robot according to an embodiment of the present invention, and FIG. 2 is a configuration diagram of a mobile robot according to an embodiment of the present invention.

도 1 및 2에 도시한 바와 같이, 본 발명의 일 실시예에 따른 측위 정확도가 높은 이동로봇(10)은, 본체와, 상기 본체를 이동시키기 위한 주행부(120)와, 주행영역에 대한 지도를 저장하는 저장부(130)와, 본체에 복수 개가 마련되되 레이저 광을 이용하여 전방의 오브젝트(object)를 감지하는 라이다(lidar)와, 현재 위치를 인식하여 주행영역 내 이동경로를 따라 주행토록 주행부(120)를 제어하는 제어부(110)를 포함할 수 있다. 여기서, 상기 지도는 복수의 반사체(200)들이 배치된 위치를 포함할 수 있고, 제어부(110)는 라이다를 이용하여 본체 주변에 위치한 복수의 반사체들에 대한 거리 및 방향을 측정하고, 측정된 상기 복수의 반사체들에 대한 거리 및 방향을 이용하여 현재 위치를 계산할 수 있다.1 and 2, the mobile robot 10 with high positioning accuracy according to an embodiment of the present invention includes a main body, a driving unit 120 for moving the main body, and a map for a driving area A storage unit 130 for storing , a plurality of lidars provided in the main body to detect an object in front using laser light, and a current position are recognized and driven along a movement path within the driving area It may include a control unit 110 for controlling the driving unit 120 so as to. Here, the map may include a location in which a plurality of reflectors 200 are disposed, and the control unit 110 measures the distance and direction of the plurality of reflectors located around the body using a lidar, and the measured A current location may be calculated using distances and directions of the plurality of reflectors.

이와 같이 본 발명의 일 실시예에 따른 이동로봇(10)은, 현재 위치를 측정하기 위하여 별도의 추가 장치를 구비하지 않고, 기존에 이동로봇이 구비하고 있는 복수의 라이다를 활용하여, 지도 내 절대적인 위치를 가진 반사체를 인식하고 이를 근거로 현재 위치를 측정함으로써, 현재 자기 위치 측정시 측위 정확도를 향상시킬 수 있다.As described above, the mobile robot 10 according to an embodiment of the present invention does not include a separate additional device to measure the current location, but utilizes a plurality of lidars that the mobile robot has in the past, By recognizing a reflector having an absolute position and measuring the current position based on this, it is possible to improve positioning accuracy when measuring the current self position.

다만, 도 1 및 2에 도시한 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 측위 정확도가 높은 이동로봇이 구현될 수 있음은 물론이다.However, since the components shown in FIGS. 1 and 2 are not essential, it goes without saying that a mobile robot having high positioning accuracy having more or fewer components than that can be implemented.

이하, 각 구성요소들에 대해 살펴보기로 한다.Hereinafter, each component will be described.

본 발명의 일 실시예에 따른 이동로봇(10)은 본체가, 도 1에 도시한 바와 같이, 소정의 길이와 폭을 갖되 상대적으로 낮은 높이를 가질 수 있다. 즉, 외관을 형성하는 본체는, 높이(height)가 너비(width) 및 길이(length) 보다 짧을 수 있다.As shown in FIG. 1 , the mobile robot 10 according to an embodiment of the present invention has a predetermined length and width, but may have a relatively low height. That is, the body forming the exterior may have a height shorter than a width and a length.

본 발명의 본체는, 반드시 이에 한하는 것은 아니나, 도 3 등에 도시한 바와 같이, 본체의 측면 중 서로 대향한 두 라이다(141a, 141b)의 거리, 즉 배치된 라이다들 각각에 의해 형성되는 센서범위의 중심들 간의 거리가 소정 거리 이상이 되도록 하는 외관을 가질 수 있다.The body of the present invention is not necessarily limited thereto, but as shown in FIG. 3 and the like, the distance between the two lidars 141a and 141b facing each other among the side surfaces of the body, that is, a sensor formed by each of the arranged lidars It may have an appearance such that the distance between the centers of the range is greater than or equal to a predetermined distance.

주행부(120)는 이동로봇(10)의 본체를 이동시키기 위한 적어도 하나의 바퀴와, 바퀴를 회전 구동시키기 위한 모터 따위를 포함한 구동장치를 포함할 수 있다.The driving unit 120 may include at least one wheel for moving the main body of the mobile robot 10 and a driving device including a motor for rotating the wheel.

주행부(120)는 전후좌우 방향으로 주행방향을 설정하기 위한 조향장치를 더 포함할 수 있으나, 조향장치를 포함하지 않는 경우 주행부(120)는 조향장치 구비없이 좌우측 각각에 구비된 바퀴의 회전 속도에 차이를 두어 좌측 또는 우측으로 본체의 주행방향을 전환하거나, 본체를 회전구동할 수도 있다.The driving unit 120 may further include a steering device for setting the driving direction in the forward, backward, left, and right directions, but when the steering device is not included, the driving unit 120 rotates the wheels provided on the left and right sides without the steering device. The driving direction of the main body may be changed to the left or right by differentiating the speed, or the main body may be rotationally driven.

도면에 도시하지 않았으나, 본 발명의 일 실시예에 따른 이동로봇(10)은 작동 전반에 필요한 전원을 공급하기 위한 배터리를 더 포함할 수 있고, 여기서 배터리는 충전 가능한 2차전지인 것이 바람직하다.Although not shown in the drawings, the mobile robot 10 according to an embodiment of the present invention may further include a battery for supplying power necessary for the overall operation, wherein the battery is preferably a rechargeable secondary battery.

저장부(130)는 이동로봇(10)을 제어 또는 구동하는 제어 프로그램 및 그에 따른 데이터를 저장할 수 있다. 구체적으로 저장부(130)는 주행영역에 대한 지도(map)를 저장할 수 있고, 이외에 오디오정보, 영상정보, 장애물정보, 위치정보 등을 저장할 수 있다. 또, 저장부(130)는 주행 방식 등을 저장할 수 있다.The storage unit 130 may store a control program for controlling or driving the mobile robot 10 and data corresponding thereto. Specifically, the storage unit 130 may store a map of the driving area, and may store audio information, image information, obstacle information, location information, and the like. Also, the storage unit 130 may store a driving method and the like.

저장부(130)는 비휘발성 메모리를 주로 사용할 수 있으며, 여기서, 비휘발성 메모리(Non-Volatile Memory, NVM, NVRAM)는 전원이 공급되지 않아도 저장된 정보를 계속 유지할 수 있는 저장 장치로서, 일 예로, 롬(ROM), 플래시 메모리(Flash Memory), 마그네틱 컴퓨터 기억 장치(예를 들어, 하드 디스크, 디스켓 드라이브, 마그네틱 테이프), 광디스크 드라이브, 마그네틱 RAM, PRAM 등일 수 있다.The storage unit 130 may mainly use a non-volatile memory, where the non-volatile memory (NVM, NVRAM) is a storage device capable of continuously maintaining stored information even when power is not supplied, for example, It may be a ROM, a flash memory, a magnetic computer storage device (eg, a hard disk, a diskette drive, a magnetic tape), an optical disk drive, a magnetic RAM, a PRAM, and the like.

제어부(110)는 이동로봇(10)의 전반적인 동작을 제어하는 수단으로서, 이동로봇(10)의 각 구성요소와 연동하여 각종 응용 프로그램을 실행하고, 그와 관련된 동작을 수행토록 할 수 있다. 즉 제어부(110)는 이동로봇(10)의 구성요소들을 통해 입출력되는 신호 또는 데이터 등을 처리하거나, 저장부(130)에 저장된 응용 프로그램을 구동함으로써, 이동로봇(10)의 구동을 제어할 수 있다. 또한, 제어부(110)는 저장부(130)에 저장된 응용 프로그램을 구동하기 위하여, 이동로봇(10)의 구성요소들 중 적어도 일부를 제어할 수 있다.The controller 110 is a means for controlling the overall operation of the mobile robot 10 , and may execute various application programs in conjunction with each component of the mobile robot 10 and perform related operations. That is, the control unit 110 may control the driving of the mobile robot 10 by processing signals or data input/output through the components of the mobile robot 10 or by driving an application program stored in the storage unit 130 . have. In addition, the controller 110 may control at least some of the components of the mobile robot 10 in order to drive the application program stored in the storage unit 130 .

제어부(110)는 전방 감지 센서나 장애물 감지 센서 등에 의해 검출된 장애물 정보와 적어도 하나의 카메라 센서에 의해 인식된 위치를 이용하여, 도 8에 도시한 것과 같이, 주행영역에 대한 지도를 생성할 수 있다. 이와 달리, 지도는 이동로봇(10)이 자율적으로 주행하며 생성되지 않고, 외부로부터 제공받아 저장부(130)에 저장할 수도 있다. 주행영역에 대한 지도를 생성하는 방법은 공지의 방법에 따르고, 본 발명에서는 특별히 한정하지 않는다.The control unit 110 may generate a map for the driving area, as shown in FIG. 8, by using the obstacle information detected by the front detection sensor or the obstacle detection sensor and the position recognized by the at least one camera sensor. have. Alternatively, the map is not generated while the mobile robot 10 autonomously drives, but may be provided from the outside and stored in the storage unit 130 . A method of generating a map for the driving region follows a known method, and is not particularly limited in the present invention.

본 명세서에서 사용하는 용어 중 '주행영역'은 벽 따위와 같은 장애물에 의해 형성되는 영역으로서 이동로봇(10)이 이동 또는 주행할 수 영역을 가리킬 수 있다.Among the terms used in this specification, 'driving area' is an area formed by an obstacle such as a wall, and may refer to an area in which the mobile robot 10 can move or travel.

또한, 본 발명의 일 실시예에 따른 지도는, 복수의 반사체(200)들의 위치를 포함할 수 있다. 반사체(200)는 주행영역 내 고정된 위치에 배치된 것으로, 지도는 해당 반사체(200)의 절대적인 위치에 대한 좌표값을 가질 수 있다. 이때, 반사체(200)는 본체에 마련된 라이다(141)의 높이와 상응한 높이에 배치되는 것이 바람직하다.In addition, the map according to an embodiment of the present invention may include positions of the plurality of reflectors 200 . The reflector 200 is disposed at a fixed position in the driving area, and the map may have coordinate values for the absolute position of the reflector 200 . In this case, the reflector 200 is preferably disposed at a height corresponding to the height of the lidar 141 provided in the body.

반사체(200)는 라이다(141)에 의해 발사된 레이저 광을 반사하는 물체로서, 주행영역 내 장애물이나 벽 따위로부터 반사되는 반사율과는 구분되는 것이어야 한다.The reflector 200 is an object that reflects the laser light emitted by the lidar 141, and should be distinguished from the reflectance reflected from obstacles or walls in the driving area.

즉, 제어부(110)는 라이다(141)를 이용하여 파사체에 발사한 레이저 광이 반사되어 돌아올 때, 수신한 레이저 광의 반사율 분포를 계산함으로써, 고반사율을 가진 반사체(200)를 구분 식별할 수 있다.That is, when the laser light emitted to the wave object using the lidar 141 is reflected and returned, the control unit 110 calculates the reflectance distribution of the received laser light, so that the reflector 200 having high reflectivity can be distinguished and identified. have.

한편, 제어부(110)는 종래와 같이 본체에 마련된 적어도 하나의 카메라(미도시)에 의해 촬영된 영상데이터를 이용하여 이동로봇(10)의 현재 위치를 인식할 수 있으나, 본 발명의 일 실시예에 따라, 현재 위치에 대한 인식 정확도를 높이기 위해 자세센서(142), 엔코더(143), 라이다(141) 등으로부터 출력되는 신호 또는 데이터를 조합할 수 있다. 이에 대한 자세한 설명은 후술하기로 한다.Meanwhile, the control unit 110 may recognize the current position of the mobile robot 10 using image data captured by at least one camera (not shown) provided in the main body as in the prior art. Accordingly, signals or data output from the posture sensor 142 , the encoder 143 , the lidar 141 , etc. may be combined in order to increase the recognition accuracy of the current position. A detailed description thereof will be provided later.

통신부(150)는 외부의 단말장치 또는 서버와 통신을 수행하기 위한 것으로서, 통신방식은 유선 또는 무선일 수 있고, 일 예로 상기 통신방식은 WLAN(Wireless LAN), WiFi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등과 같은 무선인터넷방식이나 이동통신방식, 또는 라디오주파수(RF)통신, 블루투스(Bluetooth), 적외선통신(IrDA), 지그비(Zigbee) 등 근거리 무선통신방식 중 하나일 수 있다.The communication unit 150 is for performing communication with an external terminal device or server, and the communication method may be wired or wireless. For example, the communication method is WLAN (Wireless LAN), WiFi (Wireless Fidelity) Direct, DLNA ( Digital Living Network Alliance), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), etc. ), infrared communication (IrDA), Zigbee (Zigbee), such as short-distance wireless communication method may be one of.

한편, 제어부(110)는 상기 주행영역 내 일 지점에서 타 지점으로 이동경로를 설정하고, 현재 위치를 인식하여 이동경로를 따라 주행토록 주행부(120)를 제어할 수 있다.Meanwhile, the controller 110 may set a movement path from one point to another point in the driving area, recognize the current position, and control the driving unit 120 to travel along the movement path.

이를 위해, 이동로봇(10)은 사용자로부터 각종 명령이나 입력을 받기 위한 입력부(미도시)를 포함할 수 있다.To this end, the mobile robot 10 may include an input unit (not shown) for receiving various commands or inputs from the user.

입력부는 이동지점설정, 이동경로설정, 또는 수행동작설정 등을 사용자로부터 입력받기 위해 적어도 하나의 버튼 등을 포함할 수 있고, 또한 입력부는 통신부(150)와 연동되어 유무선으로 연결된 외부의 단말장치 또는 서버로부터 각종 명령이나 입력을 전달받을 수도 있다.The input unit may include at least one button to receive an input from the user for setting a moving point, setting a moving path, or setting an action to be performed, and the input unit may be linked to the communication unit 150 and connected to an external terminal device via wired or wireless or It can also receive various commands or inputs from the server.

구체적으로, 사용자는 원격의 단말기를 이용하여 이동로봇(10)에 대하여 주행영역 내 어느 일 지점으로 이동하도록 이동명령을 생성하여 전달하거나, 또는 적어도 두 지점을 설정하여 그에 따라 생성되는 이동경로를 따라 1회 또는 2회 이상 주행토록 주행명령을 생성하여 전달할 수도 있다.Specifically, the user generates and transmits a movement command to move the mobile robot 10 to a certain point within the driving area using a remote terminal, or sets at least two points and follows the generated movement path. It is also possible to generate and transmit a driving command for driving once or twice or more.

한편, 전술한 바와 같이, 제어부(110)는 현재 위치를 측정하기 위해, 센서부(140)의 출력신호를 이용할 수 있다.Meanwhile, as described above, the control unit 110 may use the output signal of the sensor unit 140 to measure the current position.

센서부(140)는 이동하는 이동로봇(10)이 현재 위치를 측정하기 위해 필요한 정보 또는 데이터를 수집하기 위한 것이면 그 종류를 특별히 한정하지 않으나, 구체적인 예로, 라이다(141), 자세센서(142) 및 휠센서(143) 중 어느 하나 또는 이들의 조합일 수 있다.The type of the sensor unit 140 is not particularly limited as long as the moving robot 10 collects information or data necessary to measure the current position, but as a specific example, the lidar 141 and the posture sensor 142 ) and the wheel sensor 143 may be any one or a combination thereof.

라이다(lidar)(141)는 레이저 광을 이용하여 전방의 오브젝트(object)를 감지하는 수단으로서, 광을 조사하여 반사되어온 광 신호를 감지하여 거리 및 방향을 측정함으로써 전방의 오브젝트(object)를 감지할 수 있다. 라이다(141)는 이동로봇(10)의 주행방향, 즉 전방, 후방 또는 좌우측방에 배치될 수 있으나, 그 배치를 특별히 한정하는 것은 아니며, 일 예로, 도 3(a)에 도시한 바와 같이, 평면상의 본체 각 모서리부, 구체적으로 전방의 일측단부(141a)와, 이에 대향하는 후방의 타측단부(141b) 각각에 배치되어, 도 3(b)에 도시한 바와 같은 센서범위(R1, R2)를 가질 수 있다.The lidar 141 is a means for detecting a front object using laser light, and detects a light signal reflected by irradiating light to measure the distance and direction to detect the front object. can detect The lidar 141 may be disposed in the traveling direction of the mobile robot 10, that is, in the front, rear, or left and right sides, but the arrangement is not particularly limited, and as an example, as shown in FIG. , each of the corners of the body on a plane, specifically, the front one end 141a and the other end 141b at the rear opposite to it are disposed, respectively, and the sensor ranges R1, R2 as shown in FIG. 3(b) ) can have

제어부(110)는 본체에 마련된 복수 개의 라이다(141)에 의해 감지된 전방의 반사체(200)와의 거리 및 방향을 측정하고, 이를 이용하여 현재 위치를 계산할 수 있다.The control unit 110 may measure a distance and a direction from the front reflector 200 sensed by the plurality of lidars 141 provided in the body, and calculate the current position using this.

구체적으로, 도 5는 본 발명의 일 실시예에 따른 이동로봇이 반사체를 이용하여 현재 위치를 측정하는 방법을 설명하기 위한 도면으로서, 도 5(a) 및 5(b)에 도시한 바와 같이, 이동로봇(10)은 주변에 위치한 복수의 반사체(A ~ C)를 식별하고, 이동로봇(10)으로부터 각 반사체(A ~ C)와의 거리 및 방향을 측정하여, 삼각측정법 등을 이용하여 이동로봇(10)의 현재 위치를 산출할 수 있다.Specifically, FIG. 5 is a diagram for explaining a method for a mobile robot to measure a current position using a reflector according to an embodiment of the present invention. As shown in FIGS. 5(a) and 5(b), FIG. The mobile robot 10 identifies a plurality of reflectors A to C located in the vicinity, measures the distance and direction from the mobile robot 10 to each reflector A to C, and uses a triangulation method such as a mobile robot The current position of (10) can be calculated.

일 예로, 이동로봇(10)는 현재 위치에서 각 반사체 A ~ C와의 거리를 D1 ~ D3로 한 경우, 반사체들(A ~ C)의 각 좌표인 A(x, y), B(x1, y1), C(x2, y2)을 중심으로 하고 상기 각각의 거리 D1 ~ D3를 반경으로 하였을 때, 각각의 가상의 원이 교차하는 지점을 현재 위치로 산출할 수 있다.As an example, when the distance from the current position to each of the reflectors A to C is D1 to D3, the mobile robot 10 is the coordinates of each of the reflectors A to C, A(x, y), B(x1, y1). ) and C(x2, y2) as the center and the distances D1 to D3 as the radius, the point at which each virtual circle intersects may be calculated as the current position.

제어부(110)가 삼각측정법을 이용하여 현재 위치를 측정할 때, 도 5(b)에 도시한 바와 같이, 3개를 초과한 4개 이상의 반사체를 인식하고, 4개 중 3개의 반사체를 임의로 선택하고 이를 근거로 할 수 있다.When the controller 110 measures the current position using the triangulation method, as shown in FIG. 5(b), it recognizes four or more reflectors exceeding three, and arbitrarily selects three reflectors among the four. and can be based on this.

다만, 이동로봇(10)의 본체에 마련된 라이다(141)가 복수인 경우, 이동로봇(10)의 현재 측위의 기준이 되는 기준점과, 라이다들(141a, 141b)의 위치는 일치하지 않을 수 있다(도 3 참조).However, when there are a plurality of lidars 141 provided in the main body of the mobile robot 10, the reference point, which is the reference point for the current positioning of the mobile robot 10, and the positions of the lidars 141a and 141b may not match. There is (see Figure 3).

따라서, 바람직한 일 실시예에 따라, 복수의 라이다들(141a, 141b) 각각에 의해 형성되는 센서범위(R1, R2)의 중심 위치를 임의의 어느 한 가상지점인 이동로봇(10)의 현재 측위의 기준이 되는 기준점(P)으로 일치하도록 이동시켜, 라이다(141)에 의해 형성되는 센서범위(R3)를 변환시킬 수 있다(도 4(a) 및 4(b) 참조).Therefore, according to a preferred embodiment, the center position of the sensor ranges R1 and R2 formed by each of the plurality of lidars 141a and 141b is an arbitrary virtual point of the current positioning of the mobile robot 10 . By moving to coincide with the reference point P as a reference, it is possible to convert the sensor range R3 formed by the lidar 141 (see FIGS. 4(a) and 4(b)).

즉, 복수의 라이다들(141a, 141b) 각각이 인식한 전방의 반사체들과의 거리를 측정할 때, 어느 한 기준점을 두지 않으면, 측위 대상인 이동로봇(10)의 현재 위치가 정확하지 않거나, 동일 지점에서 측정때마다 다른 결과가 도출될 수 있는 문제가 있기 때문에, 기준점(P)을 설정하고 각 라이다들(141a, 141b)에 의해 형성되는 센서범위(R1, R2)의 중심을 상기 기준점(P)으로 일치시킴으로써, 측위 대상인 이동로봇(10)의 현재 위치를 일관적으로 유지할 수 있다.That is, when measuring the distance from the front reflectors recognized by each of the plurality of lidars 141a and 141b, if no one reference point is placed, the current position of the mobile robot 10, which is the positioning target, is not accurate or the same Since there is a problem that different results may be derived each time a measurement is made at a point, a reference point P is set and the center of the sensor ranges R1 and R2 formed by each of the lidars 141a and 141b is located at the reference point P ), it is possible to consistently maintain the current position of the mobile robot 10, which is the positioning target.

이때, 상기 기준점(P)은, 전술한 바와 같이, 측위 대상인 이동로봇(10)의 현재 위치좌표의 대상지점일 수 있기 때문에, 이동로봇(10) 본체 상의 어느 한 지점이어도 무방하나, 바람직하게는 평면상의 본체 중심 위치일 수 있다.At this time, since the reference point P may be a target point of the current position coordinates of the mobile robot 10, which is the positioning target, as described above, any one point on the mobile robot 10 body may be used, but preferably It may be a center position of the body on a plane.

한편, 센서부(140) 중 자세센서(142)(또는 관성센서(IMU; Inertia Measurement Unit))는 이동로봇(10)의 자세 또는 관성을 감지하기 위한 수단으로서, 가속도센서(acceleration sensor) 및 자이로센서(gyro sensor) 중 어느 하나 또는 이들의 조합으로 이루어질 수 있다. 제어부(110)는 이를 이용하여 이동 거리 및 방향을 연산할 수 있어, 기 인식되거나 설정된 최초 위치를 기준으로 한 상대적인 이동 거리 및 방향을 적용하여 현재 위치를 파악할 수 있다.On the other hand, the posture sensor 142 (or an inertia measurement unit (IMU)) of the sensor unit 140 is a means for detecting the posture or inertia of the mobile robot 10 , and includes an acceleration sensor and a gyro. It may be made of any one of the sensors (gyro sensor) or a combination thereof. The controller 110 may calculate the moving distance and direction using this, and may determine the current position by applying the relative moving distance and direction based on the previously recognized or set initial position.

가속도센서는 이동로봇(10)의 이동속도 변화를 감지할 수 있으며, 일 예로 가속도센서는 바퀴의 인접 위치에 부착되어, 바퀴의 미끄러짐이나 공회전을 검출할 수 있다. 즉 가속도센서를 통해 검출된 가속도를 이용하여 속도를 연산하고, 지령속도와 비교하여 그 차이에 따라 바닥면에 이동로봇(10)의 미끌어짐을 감지할 수도 있다.The acceleration sensor may detect a change in the moving speed of the mobile robot 10, and for example, the acceleration sensor may be attached to a position adjacent to a wheel to detect slippage or idling of the wheel. That is, the speed may be calculated using the acceleration detected by the acceleration sensor, and the sliding of the mobile robot 10 may be detected on the floor according to the difference by comparing the speed with the command speed.

자이로센서는 이동로봇(10)이 주행할 때 회전방향 및/또는 회전각을 감지할 수 있다. 자이로센서는 이동로봇(10)의 각속도를 검출하여 각속도에 비례하는 전압 값을 출력할 수 있고, 제어부(110)는 이를 이용하여 이동로봇(10)의 회전방향 및/또는 회전각을 산출할 수 있다.The gyro sensor may detect a rotation direction and/or a rotation angle when the mobile robot 10 travels. The gyro sensor may detect the angular velocity of the mobile robot 10 and output a voltage value proportional to the angular velocity, and the controller 110 may use this to calculate the rotation direction and/or rotation angle of the mobile robot 10 have.

또한, 센서부(140) 중 휠센서(wheel sensor)(143)는 바퀴에 연결되어 바퀴의 회전수를 감지할 수 있다. 휠센서는 일 예로 엔코더(encoder)(또는 로터리 엔코더(rotary encoder))일 수 있으며, 엔코더는 이동로봇(10)이 주행할 때, 적어도 어느 하나의 바퀴 회전수를 감지하여 출력할 수 있다.In addition, a wheel sensor 143 of the sensor unit 140 may be connected to the wheel to detect the number of rotations of the wheel. The wheel sensor may be, for example, an encoder (or a rotary encoder), and the encoder may detect and output the number of revolutions of at least one wheel when the mobile robot 10 drives.

제어부(110)는 휠센서(143)에 의해 감지된 바퀴의 회전수를 이용하여 회전속도 및 이동로봇(10)의 이동속도를 산출할 수 있다. 또한, 제어부(110)는 휠센서(143)를 이용하여 산출한 이동속도와 지령속도를 비교하고 그 차이에 따라 바닥면에 이동로봇(10)의 미끌어짐을 감지할 수도 있다.The controller 110 may calculate the rotational speed and the moving speed of the mobile robot 10 by using the number of rotations of the wheels detected by the wheel sensor 143 . In addition, the control unit 110 may compare the movement speed calculated using the wheel sensor 143 with the command speed and detect the sliding of the mobile robot 10 on the floor according to the difference.

다만, 자세센서(142) 및/또는 휠센서(143)에 의해 출력되는 정보를 이용하여 최초 위치로부터의 상대적인 위치를 연산하기 때문에, 외력에 의한 본체의 위치가 바뀌거나 바닥의 상태에 따라 미끄러짐이 발생하는 경우 등에는 현재 측위값에 오류가 발생할 수 있는 문제가 있다.However, since the relative position from the initial position is calculated using the information output by the posture sensor 142 and/or the wheel sensor 143, the position of the main body is changed by an external force or slippage may occur depending on the condition of the floor. In such a case, there is a problem that an error may occur in the current positioning value.

한편, 제어부(110)는 센서부(140) 중 라이다(141)를 이용한 스캔매치법(scan-matching)을 이용하여 현재 위치를 측정할 수 있다.Meanwhile, the control unit 110 may measure the current position by using a scan-matching method using the lidar 141 of the sensor unit 140 .

구체적인 일 예로, 도 8(a)에 도시한 바와 같이, 저장부(130)에 저장된 지도(map)의 경계(b1)와, 라이다(141)를 이용하여 인식된 주변의 장애물 또는 벽의 경계(b2)가 서로 일치하지 않아, 제어부(110)는 현재 인식하고 있는 이동로봇(10)의 위치 및 자세에 오류가 있음을 판단할 수 있고, 상기 라이다(141)를 이용하여 인식된 주변의 장애물 또는 벽의 경계(b2)가 기 저장된 지도(map)의 경계(b1)와 일치(도 8(b) 참조)하도록 위치 및 자세를 보정할 수 있다.As a specific example, as shown in FIG. 8( a ), the boundary b1 of the map stored in the storage unit 130 and the boundary of the surrounding obstacle or wall recognized using the lidar 141 . (b2) does not match each other, so the controller 110 can determine that there is an error in the position and posture of the mobile robot 10 currently recognized, The position and posture may be corrected so that the boundary b2 of the obstacle or wall coincides with the boundary b1 of the pre-stored map (refer to FIG. 8(b) ).

다만, 도 8(a) 및 8(b)에 도시한 바와 같이, 지도(map)의 경계(b1, b2)에 특징점이 있으면, 이동로봇(10)의 위치 및 자세 보정이 가능하나, 지도(map)가 일자형의 복도 등인 경우에는 위치 및 자세 보정이 어려운 문제가 있다.However, as shown in FIGS. 8(a) and 8(b), if there are feature points at the boundaries b1 and b2 of the map, the position and posture of the mobile robot 10 can be corrected, but the map ( If the map) is a straight corridor, there is a problem in that it is difficult to correct the position and posture.

따라서, 본 발명의 일 실시예에 따라 제어부(110)는, 도 7에 도시한 바와 같이, 자세센서(142)를 이용한 제1 측위결과와, 휠센서(143)를 이용한 제2 측위결과와, 라이다(141)를 이용한 스캔매치법에 따른 제3 측위결과와, 라이다(141)를 이용한 삼각측량법에 따른 제4 측위결과의 조합으로 이동로봇(10)의 현재 위치를 정확하게 측정할 수 있다.Therefore, according to an embodiment of the present invention, the control unit 110, as shown in FIG. 7, a first positioning result using the posture sensor 142, a second positioning result using the wheel sensor 143, The current position of the mobile robot 10 can be accurately measured by the combination of the third positioning result according to the scan-match method using the lidar 141 and the fourth positioning result according to the triangulation method using the lidar 141 . .

여기서, 제1 및 제2 측위결과는 기 인식되거나 설정된 최초위치를 기준으로 한 상대적인 것이고, 제3 및 제4 측위결과는 상기 최초위치와 무관하게 측정된 절대적인 것이기 때문에, 제어부(110)는 제1 및 제2 측위결과 중 적어도 어느 하나에 의한 현재 위치에 제3 및 제4 측위결과 중 적어도 어느 하나를 적용하여, 상기 상대적으로 추정된 현재 측위 결과에 추정된 바이어스(M1)를 제거(M2)하는 것이 바람직하다.Here, since the first and second positioning results are relative based on a previously recognized or set initial position, and the third and fourth positioning results are absolute measurements regardless of the initial position, the controller 110 controls the first and applying at least any one of the third and fourth positioning results to the current location according to at least one of the second positioning results to remove (M2) the bias M1 estimated to the relatively estimated current positioning result. it is preferable

한편, 도 6은 본 발명의 일 실시예에 따른 반사체의 외관을 나타낸 도면이다.Meanwhile, FIG. 6 is a view showing the appearance of a reflector according to an embodiment of the present invention.

도 6에 도시한 바와 같이, 본 발명의 일 실시예에 따른 반사체(200)는, 라이다(141)의 피사체들 중 반사율이 높아 다른 것들과 구분인식가능한 물체로서, 다양한 각도에서 이동로봇(10)이 인식할 수 있도록 다각기둥, 바람직하게는 원기둥 상의 표면 외주면에 레이저 광을 반사시킬 수 있는 부재가 부착된 것일 수 있다.As shown in FIG. 6 , the reflector 200 according to an embodiment of the present invention is an object with high reflectivity among subjects of the lidar 141 and thus distinguishable from other objects, and the mobile robot 10 from various angles. ) may be recognized by a member capable of reflecting laser light on the outer peripheral surface of the polygonal prism, preferably on the cylinder.

이때, 상기 반사체(200)는, 바람직한 일 실시예에 따라, 일정 패턴을 갖도록 복수의 단위반사부재(201~203)가 그룹화되어 배치됨으로써, 제어부(110)는 라이다(141)를 통해 단위반사부재들(201~203)을 식별하고 그 패턴을 인식할 수 있다. 상기 복수의 단위반사부재(201~203)는, 일 예로, 도 6에 도시한 바와 같이, 단위반사부재들(201~203)이 가로무늬를 갖도록 배치되거나 또는 이와 달리 세로무늬를 갖도록 배치되어 마치 바코드(bar code) 형태를 가질 수 있고, 또는 가로무늬와 세로무늬가 조합되어 격자 무늬 형태를 가질 수도 있다.At this time, in the reflector 200 , according to a preferred embodiment, a plurality of unit reflection members 201 to 203 are grouped and arranged to have a predetermined pattern, so that the control unit 110 performs unit reflection through the lidar 141 . The members 201 to 203 may be identified and patterns thereof may be recognized. The plurality of unit reflective members 201 to 203 are, for example, as shown in FIG. 6 , the unit reflective members 201 to 203 are arranged to have a horizontal pattern, or otherwise arranged to have a vertical pattern, as if It may have a bar code form, or a combination of horizontal and vertical patterns may have a grid pattern form.

이에 따라, 단위반사부재들(201~203) 간에는 소정 간격만큼 서로 이격되되, 그 간격이 위치(또는 높이)에 따라 다르도록 배치됨으로써, 이로 인해 형성되는 패턴은 고유한 패턴이 될 수 있다. 이때, 그 간격을 가질 수 있도록 단위반사부재(201~203)들 사이에는 단위반사부재(201~203)와 다른 반사율을 가진 또는 반사되지 않는 단위비반사부재(210~240)가 배치될 수 있다.Accordingly, the unit reflective members 201 to 203 are spaced apart from each other by a predetermined interval, and the interval is arranged to be different depending on the position (or height), so that the pattern formed thereby can be a unique pattern. In this case, the unit non-reflective members 210 to 240 having a different reflectivity or non-reflective unit reflective members 210 to 240 may be disposed between the unit reflective members 201 to 203 so as to have the spacing therebetween. .

결국, 제어부(110)는 라이다(141)를 이용하여 단위반사부재들(201~203) 및 단위비반사부재(210~240)의 배치 형태 및/또는 단위반사부재들(201~203) 및 단위비반사부재(210~240)의 폭 등에 따라 형성되는 패턴을 인식함으로써, 고유의 반사체(200)를 식별할 수 있다.As a result, the controller 110 uses the lidar 141 to arrange the unit reflective members 201 to 203 and the unit non-reflective member 210 to 240 and/or the unit reflective members 201 to 203 and By recognizing a pattern formed according to the width of the unit non-reflecting members 210 to 240 , the unique reflector 200 can be identified.

이를 이용하여, 제어부(110)는 라이다(141)를 통해 인식된 고유한 절대 위치의 반사체(200)들에 대한 측정 거리 및 측정 방향을 이용함으로써, 이동로봇(10)의 현재 절대 위치를 매우 정확하게 인식할 수 있는 효과가 있다.Using this, the control unit 110 uses the measurement distance and the measurement direction for the reflectors 200 of the unique absolute position recognized through the lidar 141, so that the current absolute position of the mobile robot 10 is very There is an effect that can be accurately recognized.

이때, 최외곽에 배치된 단위반사부재들(201, 203)의 외측에도 소정의 너비를 가진 단위비반사부재(210~240)들이 배치될 수 있고, 또한 반사체(200)에 배치된 복수의 단위비반사부재(210~240)들이 모두 동일한 반사율을 갖지 않도록 함으로써, 이동로봇(10)이 식별할 수 있는 고유 반사체(200)의 종류를 더욱 다양화할 수 있다. 육안상 동일 패턴이더라도 단위비반사부재(210~240)들의 서로 다른 반사율에 의해 이동로봇(10)은 서로 다른 반사체(200)로 식별할 수 있게 된다.At this time, unit non-reflective members 210 to 240 having a predetermined width may be disposed outside the outermost unit reflecting members 201 and 203 , and a plurality of units disposed on the reflector 200 . By preventing all of the non-reflecting members 210 to 240 from having the same reflectivity, the type of the intrinsic reflector 200 that can be identified by the mobile robot 10 can be further diversified. Even if the pattern is the same visually, the mobile robot 10 can be identified as the different reflectors 200 due to the different reflectances of the unit non-reflecting members 210 to 240 .

주행영역이 매우 넓은 경우에는 반사체(200)가 다수 배치되는 것이 바람직하지만, 라이다(141)의 감도가 낮은 경우, 다수의 반사체들(200)을 구분하기 위해 위와 같은 다양한 조합은 그 필요성이 요구된다.When the driving area is very wide, it is preferable that a plurality of reflectors 200 are disposed, but when the sensitivity of the lidar 141 is low, the various combinations as above to distinguish the plurality of reflectors 200 are required. do.

측위 정확도가 높은 이동로봇의 동작방법Operation method of mobile robot with high positioning accuracy

도 9는 본 발명의 일 실시예에 따른 이동로봇의 동작방법에 대한 단계별 흐름도이다.9 is a step-by-step flowchart of a method of operating a mobile robot according to an embodiment of the present invention.

도 9에 도시한 바와 같이, 본 발명의 일 실시예에 따른 측위 정확도가 높은 이동로봇의 동작방법은, 저장부(130)가 주행영역에 대한 지도를 마련하는 단계(S110)와, 제어부(110)가 현재 위치를 인식하여 주행영역 내 이동경로를 따라 주행토록 주행부(120)를 제어하는 단계(S120)와, 제어부(110)가 라이다(141)를 이용하여 복수의 반사체(200)들에 대한 거리 및 방향을 측정하는 단계(S130)와, 제어부(110)가 측정된 복수의 반사체(200)들에 대한 거리 및 방향을 이용하여 현재 위치를 계산하는 단계(S140)를 포함할 수 있다.As shown in FIG. 9 , in the operating method of a mobile robot having high positioning accuracy according to an embodiment of the present invention, the storage unit 130 prepares a map for the driving area (S110), and the control unit 110 ) recognizing the current location and controlling the driving unit 120 to travel along the movement path within the driving area (S120), and the control unit 110 using the lidar 141 to control the plurality of reflectors 200 It may include a step (S130) of measuring a distance and a direction to the , and a step (S140) of the controller 110 calculating a current position using the measured distance and direction of the plurality of reflectors 200 (S140). .

이에 따라 본 발명의 일 실시예에 따른 이동로봇(10)은, 기존에 이동로봇이 구비하고 있는 복수의 라이다를 활용하여, 지도 내 절대적인 위치를 가진 반사체를 인식하고, 이를 근거로 현재 위치를 측정함으로써, 측위 정확도를 향상시킬 수 있다.Accordingly, the mobile robot 10 according to an embodiment of the present invention recognizes a reflector having an absolute position on the map by using a plurality of lidars that the mobile robot has in the past, and determines the current position based on this. By measuring, positioning accuracy can be improved.

상기 측위 정확도가 높은 이동로봇의 동작방법에 포함된 각 단계별 설명은 전술한 것과 중복되므로, 이에 대한 설명은 생략하고 그에 갈음하기로 한다.Since the description of each step included in the operation method of the mobile robot having high positioning accuracy overlaps with the above, the description thereof will be omitted and will be replaced therewith.

컴퓨터 판독 가능한 기록 매체computer readable recording medium

이상 설명된 본 발명의 일 실시예에 따른 측위 정확도가 높은 이동로봇의 동작방법은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. The operation method of the mobile robot with high positioning accuracy according to an embodiment of the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium.

상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as a CD-ROM, a DVD, and a magneto-optical medium such as a floppy disk. media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform processing according to the present invention, and vice versa.

이상으로 본 발명의 바람직한 실시예를 도면을 참고하여 상세하게 설명하였다. 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다.As above, preferred embodiments of the present invention have been described in detail with reference to the drawings. The description of the present invention is for illustrative purposes, and those of ordinary skill in the art to which the present invention pertains will understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention.

따라서, 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미, 범위 및 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Accordingly, the scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning, scope, and equivalent concept of the claims are included in the scope of the present invention. should be interpreted

110: 제어부 120: 주행부
130: 저장부 140: 센서부
141: 라이다 142: 자세센서
143: 휠센서 150: 통신부
200: 반사체 201~203: 단위반사부재
210~240: 단위비반사부재
110: control unit 120: driving unit
130: storage unit 140: sensor unit
141: lidar 142: attitude sensor
143: wheel sensor 150: communication unit
200: reflector 201 to 203: unit reflective member
210 to 240: unit non-reflective member

Claims (8)

본체;
상기 본체를 이동시키기 위한 주행부;
주행영역에 대한 지도 - 상기 지도는, 복수의 반사체들의 위치를 포함함 - 를 저장하는 저장부;
상기 본체에 복수 개가 마련되되, 레이저 광을 이용하여 전방의 오브젝트를 감지하는 라이다(lidar);
현재 위치를 인식하여 상기 주행영역 내 이동경로를 따라 주행토록 상기 주행부를 제어하는 제어부;
를 포함하고,
상기 제어부는, 상기 라이다를 이용하여 상기 복수의 반사체들에 대한 거리 및 방향을 측정하고, 측정된 상기 복수의 반사체들에 대한 거리 및 방향을 이용하여 현재 위치를 계산하는 것을 특징으로 하는 측위 정확도가 높은 이동로봇.
main body;
a traveling unit for moving the main body;
a storage unit for storing a map for the driving area, the map including positions of a plurality of reflectors;
A plurality of lidars are provided on the main body to detect an object in front by using laser light;
a control unit for recognizing a current position and controlling the driving unit to travel along a movement path within the driving area;
including,
The control unit measures the distance and direction of the plurality of reflectors using the lidar, and uses the measured distance and direction for the plurality of reflectors to calculate the current position. Positioning accuracy high mobile robot.
제 1 항에 있어서,
상기 제어부는,
상기 라이다를 이용하여 상기 반사체에 의해 반사된 상기 레이저 광의 반사율을 근거로 상기 반사체를 인식하여, 측정된 상기 복수의 반사체들에 대한 거리 및 방향을 근거로 한 삼각측량법으로 현재 위치를 계산하는 것을 특징으로 하는 측위 정확도가 높은 이동로봇.
The method of claim 1,
The control unit is
Recognizing the reflector based on the reflectance of the laser light reflected by the reflector using the lidar, and calculating the current position by triangulation based on the measured distances and directions for the plurality of reflectors A mobile robot with high positioning accuracy.
제 2 항에 있어서,
상기 반사체는, 복수의 단위반사부재가 일정 패턴으로 그룹화된 것을 특징으로 하고,
상기 제어부는, 상기 패턴을 근거로 상기 반사체를 식별하는 것을 특징으로 하는 측위 정확도가 높은 이동로봇.
3. The method of claim 2,
The reflector is characterized in that a plurality of unit reflective members are grouped in a predetermined pattern,
The control unit, a mobile robot with high positioning accuracy, characterized in that for identifying the reflector based on the pattern.
제 3 항에 있어서,
상기 반사체는, 다각기둥 또는 원기둥의 형태이고,
상기 패턴은, 가로무늬의 바코드 패턴인 것을 특징으로 하는 측위 정확도가 높은 이동로봇.
4. The method of claim 3,
The reflector is in the form of a polygonal prism or a cylinder,
The pattern is a mobile robot with high positioning accuracy, characterized in that it is a bar code pattern of a horizontal pattern.
제 2 항에 있어서,
상기 제어부는,
자세센서를 이용한 제1 측위결과와, 엔코더를 이용한 제2 측위결과와, 상기 라이다를 이용한 스캔매치법에 따른 제3 측위결과와, 상기 라이다를 이용한 상기 삼각측량법에 따른 제4 측위결과의 조합으로 현재 위치를 계산하는 것을 특징으로 하는 측위 정확도가 높은 이동로봇.
3. The method of claim 2,
The control unit is
The first positioning result using the posture sensor, the second positioning result using the encoder, the third positioning result according to the scan-match method using the lidar, and the fourth positioning result according to the triangulation method using the lidar A mobile robot with high positioning accuracy, characterized in that it calculates the current position in combination.
제 1 항에 있어서,
상기 제어부는,
상기 복수의 라이다 각각에 의해 형성되는 센서범위의 중심을 상기 이동로봇의 현재 측위의 기준이 되는 기준점으로 이동시켜, 상기 센서범위를 변환시키는 것을 특징으로 하는 측위 정확도가 높은 이동로봇.
The method of claim 1,
The control unit is
A mobile robot with high positioning accuracy, characterized in that the sensor range is converted by moving the center of the sensor range formed by each of the plurality of lidars to a reference point that is a reference point for the current positioning of the mobile robot.
제 6 항에 있어서,
상기 기준점은, 평면상의 상기 본체의 중심 위치인 것을 특징으로 하는 측위 정확도가 높은 이동로봇.
7. The method of claim 6,
The reference point is a mobile robot with high positioning accuracy, characterized in that it is the center position of the main body on a plane.
본체와, 상기 본체를 이동시키기 위한 주행부와, 상기 본체에 복수 개가 마련되되 레이저 광을 이용하여 전방의 오브젝트를 감지하는 라이다(lidar)를 포함하는 이동로봇의 동작방법에 있어서,
저장부는, 주행영역에 대한 지도 - 상기 지도는, 복수의 반사체들의 위치를 포함함 - 를 마련하는 단계;
제어부는, 현재 위치를 인식하여 상기 주행영역 내 이동경로를 따라 주행토록 상기 주행부를 제어하는 단계;
상기 제어부는, 상기 라이다를 이용하여 상기 복수의 반사체들에 대한 거리 및 방향을 측정하는 단계; 및
상기 제어부는, 상기 측정된 상기 복수의 반사체들에 대한 거리 및 방향을 이용하여 현재 위치를 계산하는 단계;
를 포함하는 측위 정확도가 높은 이동로봇의 동작방법.
A method of operating a mobile robot comprising: a main body; a driving unit for moving the main body;
The storage unit may include: preparing a map for the driving area, the map including positions of a plurality of reflectors;
controlling, by the controller, the driving unit to recognize a current location and to travel along a movement path within the driving area;
The controller may include: measuring distances and directions with respect to the plurality of reflectors using the lidar; and
calculating, by the controller, a current location using the measured distances and directions of the plurality of reflectors;
A method of operating a mobile robot with high positioning accuracy, including:
KR1020200038170A 2020-03-30 2020-03-30 Robot with high accuracy position determination, and method for operating the same KR102341712B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200038170A KR102341712B1 (en) 2020-03-30 2020-03-30 Robot with high accuracy position determination, and method for operating the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200038170A KR102341712B1 (en) 2020-03-30 2020-03-30 Robot with high accuracy position determination, and method for operating the same

Publications (2)

Publication Number Publication Date
KR20210121474A true KR20210121474A (en) 2021-10-08
KR102341712B1 KR102341712B1 (en) 2021-12-20

Family

ID=78115779

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200038170A KR102341712B1 (en) 2020-03-30 2020-03-30 Robot with high accuracy position determination, and method for operating the same

Country Status (1)

Country Link
KR (1) KR102341712B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114413903A (en) * 2021-12-08 2022-04-29 上海擎朗智能科技有限公司 Positioning method for multiple robots, robot distribution system, and computer-readable storage medium
KR102479774B1 (en) * 2022-09-15 2022-12-21 주식회사 라스테크 Humanoid robot having robot arm
WO2023143019A1 (en) * 2022-01-30 2023-08-03 苏州简单有为科技有限公司 Sweeping robot control method and system, and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100826828B1 (en) 2006-11-29 2008-05-06 한국산업기술대학교산학협력단 System for verifying position of the robot using rfid and method therefor
US20170296021A1 (en) * 2016-04-14 2017-10-19 Beijing Xiaomi Mobile Software Co., Ltd. Autonomous cleaning device
KR102031348B1 (en) * 2018-04-13 2019-11-08 주식회사 랜도르아키텍쳐 Autonomous Working System, Method and Computer Readable Recording Medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100826828B1 (en) 2006-11-29 2008-05-06 한국산업기술대학교산학협력단 System for verifying position of the robot using rfid and method therefor
US20170296021A1 (en) * 2016-04-14 2017-10-19 Beijing Xiaomi Mobile Software Co., Ltd. Autonomous cleaning device
KR102031348B1 (en) * 2018-04-13 2019-11-08 주식회사 랜도르아키텍쳐 Autonomous Working System, Method and Computer Readable Recording Medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114413903A (en) * 2021-12-08 2022-04-29 上海擎朗智能科技有限公司 Positioning method for multiple robots, robot distribution system, and computer-readable storage medium
WO2023143019A1 (en) * 2022-01-30 2023-08-03 苏州简单有为科技有限公司 Sweeping robot control method and system, and storage medium
KR102479774B1 (en) * 2022-09-15 2022-12-21 주식회사 라스테크 Humanoid robot having robot arm

Also Published As

Publication number Publication date
KR102341712B1 (en) 2021-12-20

Similar Documents

Publication Publication Date Title
KR102341712B1 (en) Robot with high accuracy position determination, and method for operating the same
US11918175B2 (en) Control method for carpet drift in robot motion, chip, and cleaning robot
JP6599543B2 (en) Automated guided vehicle
JP2001515237A (en) Docking method of autonomous motion unit using guidance beam
KR100772912B1 (en) Robot using absolute azimuth and method for mapping by the robot
JP5278283B2 (en) Autonomous mobile device and control method thereof
Yoshida et al. A sensor platform for outdoor navigation using gyro-assisted odometry and roundly-swinging 3D laser scanner
US20230341862A1 (en) Autonomous Movement Device, Autonomous Movement Method, And Program
TWI684084B (en) Mobile device
JP5276931B2 (en) Method for recovering from moving object and position estimation error state of moving object
JP2009217333A (en) Mobile robot and operation control method thereof
JP5553220B2 (en) Moving body
JP2019053391A (en) Mobile body
JP2018185767A (en) Environment maintenance robot, and control program of the same
US20220351011A1 (en) Printing systems
WO2018179960A1 (en) Mobile body and local position estimation device
CN109478066B (en) Mobile robot and control method
Csaba et al. Differences between Kinect and structured lighting sensor in robot navigation
JPWO2019064750A1 (en) Distance measuring device and moving object
JP4377346B2 (en) Mobile robot
JP6951539B1 (en) Self-propelled equipment, measurement methods, and programs
JP2009093514A (en) Self-propelled apparatus and program
JP6863049B2 (en) Autonomous mobile robot
JP7460328B2 (en) Mobile robot, mobile robot control system, and mobile robot control method
KR102341703B1 (en) Robot for driving optimal path, and method for operating the same

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant