KR101341204B1 - Device and method for estimating location of mobile robot using raiser scanner and structure - Google Patents

Device and method for estimating location of mobile robot using raiser scanner and structure Download PDF

Info

Publication number
KR101341204B1
KR101341204B1 KR1020120021347A KR20120021347A KR101341204B1 KR 101341204 B1 KR101341204 B1 KR 101341204B1 KR 1020120021347 A KR1020120021347 A KR 1020120021347A KR 20120021347 A KR20120021347 A KR 20120021347A KR 101341204 B1 KR101341204 B1 KR 101341204B1
Authority
KR
South Korea
Prior art keywords
mobile robot
laser scanner
unit
distance
robot
Prior art date
Application number
KR1020120021347A
Other languages
Korean (ko)
Other versions
KR20130099667A (en
Inventor
김성신
김정민
정경훈
이인성
Original Assignee
부산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 부산대학교 산학협력단 filed Critical 부산대학교 산학협력단
Priority to KR1020120021347A priority Critical patent/KR101341204B1/en
Publication of KR20130099667A publication Critical patent/KR20130099667A/en
Application granted granted Critical
Publication of KR101341204B1 publication Critical patent/KR101341204B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/005Manipulators for mechanical processing tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치 및 방법에 관한 것으로, 더욱 상세하게는 고정된 천장의 구조물과 연산량이 적고 오차가 낮은 레이저 스캐너를 이용하여 위치추정의 오차를 최소화할 수 있는 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치 및 방법을 제공하기 위한 것이다.
그 기술적 구성은 레이저 스캐너 및 구조물을 이용하여 모바일 로봇의 위치를 추정하는 방법에 있어서, 모바일 로봇이 주행하는 위치의 상부면 또는 전방과 상부면이 스캔 및 패턴화되어 패턴 지도로 저장되는 제 1 단계; 상기 모바일 로봇이 주행하며 주행 방향과 직교하는 좌표를 기준으로 180도 스캔하고, 상기 상부면 또는 전방과 상부면에 위치한 구조물을 추출하는 제 2 단계; 상기 추출된 구조물과 상기 패턴 지도를 비교하여 매칭된 구조물을 찾는 경우, 로봇 좌표계에서 전역 좌표계로 변환하는 변환 행렬의 역행렬을 매칭된 구조물 좌표에 연산하여 상기 모바일 로봇의 위치를 산출하는 제 3 단계; 를 포함하여 이루어지는 것을 특징으로 한다.
The present invention relates to an apparatus and method for estimating a mobile robot using a laser scanner and a structure. More specifically, the error of the position estimation can be minimized by using a laser scanner having a fixed ceiling structure and a small amount of calculation and a low error. The present invention provides a device and method for estimating a location of a mobile robot using a laser scanner and a structure.
The technical configuration is a method for estimating the position of a mobile robot using a laser scanner and a structure, the first step of scanning the upper surface or the front and the upper surface of the position where the mobile robot travels, patterned and stored as a pattern map ; A second step of scanning the mobile robot 180 degrees based on coordinates orthogonal to the driving direction and extracting the structures located on the upper surface or the front and upper surfaces; A third step of calculating a position of the mobile robot by calculating an inverse of a transformation matrix transformed from a robot coordinate system to a global coordinate system to matched structure coordinates when comparing the extracted structure with the pattern map; And a control unit.

Description

레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치 및 방법{DEVICE AND METHOD FOR ESTIMATING LOCATION OF MOBILE ROBOT USING RAISER SCANNER AND STRUCTURE}Device and method for location estimation of mobile robot using laser scanner and structure {DEVICE AND METHOD FOR ESTIMATING LOCATION OF MOBILE ROBOT USING RAISER SCANNER AND STRUCTURE}

본 발명의 실시예는 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치 및 방법에 관한 것으로, 보다 상세하게는, 고정된 천장의 구조물과 연산량이 적고 오차가 낮은 레이저 스캐너를 이용하여 위치추정의 오차를 최소화할 수 있는 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치 및 방법에 관한 것이다.
Embodiments of the present invention relate to an apparatus and method for estimating a position of a mobile robot using a laser scanner and a structure, and more particularly, an error in position estimation using a laser scanner having a fixed ceiling structure and a small amount of calculation and a low error. The present invention relates to a mobile robot positioning apparatus and method using a laser scanner and a structure capable of minimizing the number.

일반적으로, 로봇(Robot)은 스스로 보유한 능력에 의해 주어진 일을 자동으로 처리하거나 작동하는 기계로, 크게는 이동 로봇과 고정 로봇으로 분류되며, 작게는 우주 관련 로봇, 인간형 로봇, 산업용 로봇, 생물 및 의학용 로봇과 네트워크 로봇 등으로 분류된다.In general, a robot is a machine that automatically handles or operates a given task by its own abilities, and is largely classified into a mobile robot and a fixed robot, and is a space robot, a humanoid robot, an industrial robot, a living organism, and a robot. It is classified into medical robot and network robot.

산업용 로봇은 제품 생산 현장에서 수행되는 용접 작업이나 부품의 조립과 같은 작업을 수행하는데, 대표적으로 로봇 암(Robot Arm)의 구조를 가진다. 로봇 암의 구조는 여러 개의 관절을 가지고 있는 것이 특징으로, 로봇 암이 한 장소에 고정 설치되어, 지시된 작업을 수행하게 된다. 따라서, 로봇 암의 작업 공간은 극히 제한적일 수 있다.Industrial robots perform tasks such as welding work or assembly of parts that are performed at a product production site, and typically have a structure of a robot arm. The structure of the robot arm is characterized by having a plurality of joints, the robot arm is fixedly installed in one place, to perform the indicated work. Thus, the working space of the robotic arm can be extremely limited.

한편, 이동 로봇은 물리적 기계 장치에 인공 지능을 탑재한 로봇 시스템으로 자율적으로 동작할 수 있는 능력을 가지고 있으므로, 많은 영역에서 전통적인 기계 장비가 수행할 수 없는 작업을 인간에 의해 수행하는 것보다 더 잘 수행할 수 있다.Mobile robots, on the other hand, have the ability to operate autonomously as robotic systems with artificial intelligence in their physical machinery, making them perform better than humans perform tasks that traditional mechanical equipment cannot perform in many areas. Can be done.

이러한 로봇 시스템에 적용되는 차량은 운행을 위한 자체 동력과 이들의 운행을 제어하는 제어 장비 및 센서를 가지고 통제된다. 이러한 통제는 크게 로봇의 움직임을 관찰하는 감독 제어(Supervisory Control) 로봇과 유선 또는 무선으로 인간에 의해 제어되는 원격 운행(Remotely Operated)으로 나눌 수 있다.Vehicles applied to these robotic systems are controlled with their own power for driving and control equipment and sensors to control their operation. This control can be largely divided into a supervisory control robot that observes the movement of the robot and a remotely operated, which is controlled by a human by wire or wirelessly.

로봇 제어 기술이 발전함에 따라 원격 운행 방식보다 감독 제어 방식이 대세를 이루고 있는데, 이를 가능하게 하기 위해서는 반드시 향상된 센서 및 네비게이션 기술이 접목되어야 한다.As robot control technology advances, supervisory control is becoming more popular than remote operation. To enable this, improved sensor and navigation technology must be combined.

센서와 센서 네트워크 개발에는 다음과 같은 목적이 있는데, 그것은 센서가 주변 환경을 감시하고 쌍방향 제어가 되어야 한다는 것과, 상대적인 위치를 이용해서 자신의 위치를 알 수 있어야 한다는 것이다.The development of sensors and sensor networks has the following objectives: sensors need to monitor the environment and be interactive, and know their location using relative location.

이동 로봇의 위치 및 방향을 인식하는 방법은 여러 가지가 있지만, 보편적으로 오도메트리(Odometry)를 이용한 방식이 많이 사용되고 있다. 오도메트리는 자율항법(Dead-Reckoning)이라고도 하며, 오도메트리 기반 이동 로봇은 이동하는 로봇에 주행거리계(Odometer) 또는 휠 센서(Wheel Sensor)를 이용하여 속도 정보를 얻고, 자성 센서 등을 이용하여 방위각 정보를 계산해 이동 로봇 자신의 위치와 방향을 인식한다.There are many ways of recognizing the position and direction of a mobile robot, but the method using Odometry is widely used. Odometry is also known as dead-reckoning, and an odometry-based mobile robot obtains velocity information by using an odometer or a wheel sensor on a moving robot, and uses a magnetic sensor. Azimuth information is calculated to recognize the position and direction of the mobile robot itself.

이와 같은 오도메트리는 외부로부터 별도의 정보 입력 없이도, 자체적으로 발생하는 정보만을 이용한다. 오도메트리는 매우 높은 샘플링 속도로 위치정보를 획득하기 때문에 위치 정보의 업데이트가 빠를 뿐만 아니라, 비교적 짧은 거리에서는 정확도가 매우 높으며, 비용 또한 저렴하여 쉽게 구현할 수 있다는 장점이 있다.Such an odometry uses only information generated by itself, without inputting additional information from the outside. Odometry acquires the location information at a very high sampling rate, so it is not only fast to update the location information, but also has an advantage that it can be easily implemented because the accuracy is very high and the cost is low at a relatively short distance.

하지만, 오도메트리는 적분을 통해 위치와 방향을 계산하기 때문에, 주행 거리가 증가할수록 측정 오차가 누적되는 단점을 가지고 있다. 특히 이동 로봇은 이동 로봇의 바퀴 회전 횟수에 의해 이동 거리가 결정되면, 노면의 상태를 결정할 수 없을 뿐만 아니라, 작업 영역의 노면 상태에 따라 미끄러짐 등이 발생할 수 있고, 이로 인해 발생하는 오차는 전혀 보상되지 못하고 원거리 이동시 그대로 누적되는 현상이 발생하는 문제가 있다.However, since odometry calculates the position and direction through integration, measurement errors accumulate as the driving distance increases. In particular, when the moving distance is determined by the number of wheel rotations of the mobile robot, the mobile robot may not be able to determine the state of the road surface, but may also slip according to the road surface state of the work area, and the error caused by this may be completely compensated. There is a problem that can not accumulate when it is not moved far away.

한편, 이동 로봇의 위치 및 방향을 인식하기 위해 랜드마크(Landmark)를 이용하는 방식이 있는데, 이것은 카메라로부터 획득된 랜드마크 영상으로부터 이동 로봇의 위치를 계산하는 원리이며, 카메라는 실내의 천정 또는 벽면에 고정 설치하는 형태와 반대로 랜드마크를 고정하고 이동 로봇에 카메라를 설치하는 형태가 있다.On the other hand, there is a method that uses a landmark (Landmark) to recognize the position and direction of the mobile robot, which is a principle for calculating the position of the mobile robot from the landmark image obtained from the camera, the camera on the ceiling or wall of the room In contrast to the fixed installation form, there is a form of fixing the landmark and installing the camera on the mobile robot.

하지만, 이러한 방법은 로봇의 이동 범위가 실내 공간이라는 제약을 받고, 영상획득 방법상 조명의 영향에 민감하게 반응하며, 실제로 옥외 환경에서는 사용이 어려운 점을 개선하기 위해 한국특허공개번호 제10-2009-0034007호에서는 레이저를 이용한 로봇 위치인식에 관한 기술이 개시되어 있다.However, this method is limited to the movement range of the robot indoor space, sensitive to the influence of the light in the image acquisition method, and in order to improve the difficulty in use in outdoor environment, Korean Patent Publication No. 10-2009 In -0034007, a technique relating to robot position recognition using a laser is disclosed.

도 1을 참조하여 설명하면, 로봇 위치인식용 레이저 센서 시스템은 4 개의 센서 모듈(1)과 하나의 프로세서 모듈로 이루어지는데, 발광부가 바닥면에 빛을 쏘고, 이미지 센서(11)는 바닥면을 실시간으로 촬영한다. 이때, 움직임이 있는 경우, 이미지 센서(11)가 촬영한 바닥면 영상은 이전의 영상과 다르게 되므로, 이를 영상 처리하여 움직임 추정(Motion Estimation)을 하여 X축과 Y축의 변화를 계산한다.
Referring to FIG. 1, the robot position recognition laser sensor system includes four sensor modules 1 and one processor module. The light emitting unit shoots light on the bottom surface, and the image sensor 11 views the bottom surface. Shoot in real time. In this case, when there is motion, the bottom image captured by the image sensor 11 is different from the previous image, and thus the motion of the X and Y axes is calculated by performing motion estimation by performing image processing.

그러나, 전방을 촬영하거나 바닥면을 촬영할 때, 전방이나 바닥면에 장애물이 있거나 움직이는 물체가 있거나 장애물의 위치가 계속적으로 변하는 경우, 장애물이나 계속적으로 변하는 물체 및 장애물로 인해 특징점을 추출할 수 없고, 이미지 센서나 카메라와 같은 장치로 촬영하는 경우, 일반적인 해상도에서 특징 추출에 필요한 계산량이 기하급수적으로 늘어나며, 이에 따라 이동 로봇이 이동하면서 자신의 위치를 파악하는 데 높은 사양이 요구되어 비용 및 부하가 극대화되는 등의 문제점이 있었다.
However, when shooting forward or shooting the floor, if there are obstacles, moving objects, or the position of the obstacle constantly changing in front or bottom surface, the feature points cannot be extracted due to the obstacle or constantly changing objects and obstacles, When shooting with devices such as image sensors or cameras, the amount of computation required to extract features at exponential resolutions increases exponentially, maximizing cost and load by requiring high specifications to locate the mobile robot as it moves. There was a problem such as being.

한국특허공개번호 제10-2009-0034007호Korean Patent Publication No. 10-2009-0034007

본 발명의 실시예는 전술한 문제점을 해결하기 위하여 창안된 것으로서, 모바일 로봇의 천정이나 벽면을 레이저 스캐너로 스캔함으로써, 전방이나 바닥면에 장애물이 있거나 움직이는 물체가 존재하더라도, 특징점을 용이하게 추출할 수 있는 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치 및 방법을 제공하는 것을 목적으로 한다.An embodiment of the present invention was devised to solve the above-mentioned problems, and by scanning the ceiling or wall of a mobile robot with a laser scanner, even if there are obstacles or moving objects on the front or the bottom, a feature point can be easily extracted. An object of the present invention is to provide an apparatus and method for positioning a mobile robot using a laser scanner and a structure.

본 발명의 실시예는, 레이저 스캐너를 이용하여 바닥면을 벽면 및 상부면을 촬영하기 위해, 0 도부터 180도까지 촬영함으로써, 특징 추출에 필요한 계산량이 기하급수적으로 줄어들 수 있는 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치 및 방법을 제공하는 것을 목적으로 한다.An embodiment of the present invention, by using a laser scanner to shoot the floor surface and the wall surface and the upper surface, by taking a laser scanner and structure that can be reduced exponentially by calculating the required amount of feature extraction from 180 degrees to 180 degrees An object of the present invention is to provide a location estimation apparatus and method for a mobile robot.

본 발명의 실시예는, 모바일 로봇이 이동하면서 자신의 위치를 파악하는데 높은 사양이 요구되지 않아, 저 사양으로 적은 부하를 가지고 빠른 시간 내에 자신의 위치를 추출하여 원하는 위치로 적은 시간으로도 이동할 수 있는 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치 및 방법을 제공하는 것을 목적으로 한다.
In the embodiment of the present invention, since the mobile robot does not require high specifications to determine its position as it moves, it is possible to extract its location within a short time with a low load with a low specification and move to a desired location in less time. An object of the present invention is to provide a mobile robot positioning apparatus and method using a laser scanner and a structure.

상기한 바와 같은 목적을 달성하기 위하여 본 발명은 실시예들 중에서, 레이저 스캐너 및 구조물을 이용하여 모바일 로봇의 위치를 추정하는 장치에 있어서, 모바일 로봇이 주행하는 위치의 상부면 또는 전방과 상부면을 스캔하는 스캔부; 구조물을 패턴화하여 미리 패턴 지도로 저장하는 패턴 지도부; 상기 모바일 로봇이 주행하면서 상기 상부면 또는 전방과 상부면을 스캔하면, 상기 스캔부에서 스캔한 데이터를 직선으로 피팅하는 라인 피팅부; 상기 피팅한 라인과의 거리 또는 각도가 제 1 임계값을 초과하면 구조물로 추출하는 구조물 추출부; 상기 추출된 구조물과 상기 패턴 지도와 매칭하되, 상기 매칭율이 제 2 임계값 이하의 구조물을 추출하는 구조물 매칭부; 상기 구조물 매칭부에서 추출한 구조물의 좌표 및 변환행렬을 이용하여 상기 모바일 로봇의 위치를 계산하는 위치 계산부; 를 포함하는 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치를 이용하여 과제를 해결할 수 있도록 이루어진다.In order to achieve the above object, the present invention provides a device for estimating the position of a mobile robot using a laser scanner and a structure, among the embodiments, the upper surface or the front and the upper surface of the position at which the mobile robot travels. A scanning unit to scan; A pattern map unit which patterns the structure and stores the pattern map in advance; A line fitting unit fitting the data scanned by the scan unit in a straight line when the mobile robot scans the upper surface or the front and upper surfaces while driving; A structure extracting unit extracting a structure when the distance or angle with the fitted line exceeds a first threshold value; A structure matching unit which matches the extracted structure with the pattern map and extracts a structure whose matching rate is equal to or less than a second threshold value; A position calculator for calculating a position of the mobile robot using coordinates and transformation matrices of the structure extracted by the structure matching unit; It is made to solve the problem by using a position estimation device of the mobile robot using a laser scanner and a structure comprising a.

일 실시예에서, 상기 스캔부는 이동 방향과 직교하는 또는 이동 방향과 동일한 좌표의 0 도부터 180도까지 스캔하는 것을 특징으로 하는 모바일 로봇의 위치추정장치를 포함한다.In one embodiment, the scan unit includes a position estimation device of the mobile robot, characterized in that scanning from 0 degrees to 180 degrees of the coordinates orthogonal to the movement direction or the same as the movement direction.

일 실시예에서, 상기 라인 피팅부는 상기 스캔부가 스캔한 데이터를 피팅할 때, Least Squre 피팅 방법, Ransac 알고리즘, Haugh Transform 중 어느 하나를 사용하는 것을 특징으로 하는 모바일 로봇의 위치추정장치를 포함한다.In one embodiment, the line fitting unit includes a position estimation device of the mobile robot, characterized in that using any one of the Least Squre fitting method, Ransac algorithm, Haugh Transform when fitting the scanned data.

일 실시예에서, 상기 패턴 지도부는 상기 모바일 로봇이 위치한 바닥면과 대칭되는 상부면에 위치한 상기 구조물을 패턴화하여 저장한 것을 특징으로 하는 모바일 로봇의 위치추정장치를 포함한다.In one embodiment, the pattern map unit includes a position estimation device of the mobile robot, characterized in that for storing the patterned structure located on the upper surface symmetrical to the bottom surface on which the mobile robot is located.

일 실시예에서, 상기 구조물 추출부는 상기 라인 피팅부에서 직선으로 피팅할 때, 상기 피팅된 라인을 기준으로 거리가 제 1 임계값을 초과하거나, 각도가 제 3 임계값을 초과하는 경우, 상기 상부면 또는 전방과 상부면의 특징으로 추출하는 것을 특징으로 하는 모바일 로봇의 위치추정장치를 포함한다.In one embodiment, the structure extractor, when fitting in a straight line in the line fitting, when the distance is greater than the first threshold relative to the fitted line, or the angle exceeds the third threshold, the upper portion Positioning device of the mobile robot, characterized in that the extraction to the surface or the front and upper surface features.

일 실시예에서, 상기 구조물은 천장 구조물, 상기 상부면과 전방과의 모서리, 오목 또는 볼록한 구조물, 반사 구조물 중 어느 하나인 것을 특징으로 하는 모바일 로봇의 위치추정장치를 포함한다.In one embodiment, the structure includes a positioning device of the mobile robot, characterized in that any one of a ceiling structure, the upper surface and the front edge, concave or convex structure, reflective structure.

일 실시예에서, 상기 구조물이 반사 구조물일 경우, 상기 반사 구조물 사이의 거리, 상기 반사 구조물을 이은 선분의 각도, 동시에 추출된 상기 반사 구조물의 개수 중 어느 하나를 이용하는 것을 특징으로 하는 모바일 로봇의 위치추정장치를 포함한다.In one embodiment, when the structure is a reflective structure, the position of the mobile robot using any one of the distance between the reflective structure, the angle of the line segment connecting the reflective structure, the number of the reflective structure extracted at the same time And an estimating device.

일 실시예에서, 상기 구조물 추출부는 상기 라인 피팅부에서 직선으로 피팅할 때, 상기 피팅된 라인을 기준으로 거리가 제 1 임계값을 초과하거나, 각도가 제 3 임계값을 초과하는 경우, 상기 상부면 또는 전방과 상부면의 특징으로 추출하는 것을 특징으로 하는 모바일 로봇의 위치추정장치를 포함한다.In one embodiment, the structure extractor, when fitting in a straight line in the line fitting, when the distance is greater than the first threshold relative to the fitted line, or the angle exceeds the third threshold, the upper portion Positioning device of the mobile robot, characterized in that the extraction to the surface or the front and upper surface features.

실시예들 중에서, 레이저 스캐너 및 구조물을 이용하여 모바일 로봇의 위치를 추정하는 방법에 있어서, 모바일 로봇이 주행하는 위치의 상부면 또는 전방과 상부면이 스캔 및 패턴화되어 패턴 지도로 저장되는 제 1 단계; 상기 모바일 로봇이 주행하며 주행 방향과 직교하는 좌표를 기준으로 180도 스캔하고, 상기 상부면 또는 전방과 상부면에 위치한 구조물을 추출하는 제 2 단계; 상기 추출된 구조물과 상기 패턴 지도를 비교하여 매칭된 구조물을 찾는 경우, 로봇 좌표계에서 전역 좌표계로 변환하는 변환 행렬의 역행렬을 매칭된 구조물 좌표에 연산하여 상기 모바일 로봇의 위치를 산출하는 제 3 단계; 를 포함하는 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정방법을 이용하여 과제를 해결할 수 있도록 이루어진다.Among the embodiments, in the method for estimating the position of the mobile robot using a laser scanner and the structure, the first surface or the front and the upper surface of the position at which the mobile robot travels is scanned and patterned and stored as a pattern map step; A second step of scanning the mobile robot 180 degrees based on coordinates orthogonal to the driving direction and extracting the structures located on the upper surface or the front and upper surfaces; A third step of calculating a position of the mobile robot by calculating an inverse of a transformation matrix transformed from a robot coordinate system to a global coordinate system to matched structure coordinates when comparing the extracted structure with the pattern map; It is made to solve the problem by using a position estimation method of the mobile robot using a laser scanner and a structure comprising a.

일 실시예에서, 상기 스캔을 실시한 후, 상기 스캔한 데이터의 각도와 거리를 이용하여 상부면과 전방을 분리하는 세그먼테이션을 실시하는 단계를 포함하는 것을 특징으로 하는 특징으로 하는 모바일 로봇의 위치추정방법을 포함한다.In one embodiment, after performing the scan, performing a segmentation for separating the upper surface and the front by using the angle and the distance of the scanned data, characterized in that the mobile robot position estimation method It includes.

일 실시예에서, 상기 제 3 단계는 상기 패턴 지도에 적어도 하나 이상의 동일한 가중치를 가지는 파티클을 분포시키는 단계; 상기 모바일 로봇에서 스캔하여 상기 구조물이 추출될 경우, 상기 적어도 하나 이상의 파티클의 위치에서 상기 구조물과의 거리를 계산하여 상기 거리가 최소일수록 가중치를 비례하여 부여하는 단계; 상기 가중치가 일정 가중치 이하인 파티클은 삭제하고, 상기 삭제된 파티클을 일정 가중치 초과인 파티클 근처에 복제하여 위치시키는 단계; 상기 파티클이 일정 오차 범위 내에 수렴하면, 일정 오차 범위 내에 있는 파티클 중 상기 오차 범위가 가장 낮은 파티클의 위치를 상기 모바일 로봇의 위치로 추정하는 단계를 포함하는 것을 특징으로 하는 특징으로 하는 모바일 로봇의 위치추정방법을 포함한다.In one embodiment, the third step includes distributing at least one equal weight particle in the pattern map; When the structure is extracted by scanning from the mobile robot, calculating a distance to the structure at the position of the at least one particle and giving a weight proportionally as the distance is minimum; Deleting particles whose weight is less than or equal to a predetermined weight, and replicating and deleting the deleted particles near particles that are greater than or equal to a predetermined weight; And when the particle converges within a certain error range, estimating the position of the particle having the lowest error range among the particles within the predetermined error range as the position of the mobile robot. Include estimation methods.

일 실시예에서, 상기 로봇의 위치로 추정하는 단계는 최대 가중치 파티클(Maximum Weighted Particle), 파티클 평균(Weighted Mean) 중 적어도 하나를 이용하는 것을 특징으로 하는 특징으로 하는 모바일 로봇의 위치추정방법을 포함한다.
In one embodiment, the step of estimating the position of the robot includes a method for estimating the position of the mobile robot, characterized in that it uses at least one of the maximum weighted particle (particle), the weighted mean (Weighted Mean). .

이상에서 설명한 바와 같이, 상기와 같은 구성을 갖는 본 발명의 개시된 기술은 모바일 로봇의 천정이나 벽면을 레이저 스캐너로 스캔함으로써, 전방이나 바닥면에 장애물이 있거나 움직이는 물체가 존재하더라도, 특징점을 용이하게 추출할 수 있고, 레이저 스캐너를 이용하여 바닥면을 벽면 및 상부면을 촬영하기 위해, 0 도부터 180도까지 촬영함으로써, 특징 추출에 필요한 계산량이 기하급수적으로 줄어들 수 있으며, 모바일 로봇이 이동하면서 자신의 위치를 파악하는데 높은 사양이 요구되지 않아, 저 사양으로 적은 부하를 가지고 빠른 시간 내에 자신의 위치를 추출하여 원하는 위치로 적은 시간으로도 이동할 수 있으므로, 오류율이 낮아 신뢰성은 높으면서도 낮은 단가로 모바일 로봇을 생산할 수 있어 가격의 우위를 선점함과 동시에 고객 만족을 실현할 수 있는 등의 효과를 거둘 수 있다.
As described above, the disclosed technology of the present invention having the above-described configuration, by scanning the ceiling or wall of the mobile robot with a laser scanner, even if there are obstacles or moving objects on the front or bottom surface, it is easy to extract feature points By using the laser scanner to shoot the bottom and wall and the top surface, from 0 to 180 degrees, the amount of computation required for feature extraction can be reduced exponentially. Since high specification is not required to determine the location, it is possible to extract its own location in a short time with low load with low specification and move it to the desired location in less time, so that the error rate is low and the reliability is high but the unit price is low. To produce a high quality, preemptive price and customer satisfaction Can achieve such effects.

도 1은 종래 기술에 따른 로봇 위치인식용 레이저 센서 시스템의 개략도이다.
도 2는 본 발명의 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치를 설명하는 블록도이다.
도 3은 본 발명의 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정방법을 도시한 흐름도이다.
도 4는 본 발명의 장치 및 방법과 종래 기술의 장치 및 방법의 차이점을 도시한 도이다.
도 5는 본 발명의 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치에서 구조물을 이용한 특징 추출을 설명하는 도이다.
도 6은 도 5의 특징 추출 방법 중 서로 다른 실시예를 설명하기 위한 도이다.
도 7은 본 발명의 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치에서 패턴 지도와 추출된 패턴을 매칭시키는 서로 다른 실시예를 설명하기 위한 도이다.
1 is a schematic diagram of a robot position recognition laser sensor system according to the prior art.
2 is a block diagram illustrating an apparatus for estimating a position of a mobile robot using a laser scanner and a structure of the present invention.
3 is a flowchart illustrating a method for estimating a position of a mobile robot using a laser scanner and a structure of the present invention.
4 is a diagram illustrating the difference between the apparatus and method of the present invention and the apparatus and method of the prior art.
5 is a view illustrating feature extraction using a structure in the position estimation device of the mobile robot using the laser scanner and the structure of the present invention.
6 is a view for explaining another embodiment of the feature extraction method of FIG.
7 is a view for explaining different embodiments of matching the pattern map and the extracted pattern in the position estimation device of the mobile robot using the laser scanner and the structure of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 이하의 설명에 있어서, 당업자에게 주지 저명한 기술에 대해서는 그 상세한 설명을 생략할 수 있다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, a detailed description of known techniques well known to those skilled in the art may be omitted.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 동일한 명칭의 구성 요소에 대하여 도면에 따라 다른 참조부호를 부여할 수도 있으며, 서로 다른 도면임에도 불구하고 동일한 참조부호를 부여할 수도 있다. 그러나, 이와 같은 경우라 하더라도 해당 구성 요소가 실시예에 따라 서로 다른 기능을 갖는다는 것을 의미하거나, 서로 다른 실시예에서 동일한 기능을 갖는다는 것을 의미하는 것은 아니며, 각각의 구성 요소의 기능은 해당 실시예에서의 각각의 구성요소에 대한 설명에 기초하여 판단하여야 할 것이다.In describing the constituent elements of the present invention, the same reference numerals may be given to constituent elements having the same name, and the same reference numerals may be given thereto even though they are different from each other. However, even in such a case, it does not mean that the corresponding component has different functions according to the embodiment, or does not mean that the different components have the same function. It should be judged based on the description of each component in the example.

또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다.In the following description of the embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the component of this invention, terms, such as 1st, 2nd, A, B, (a), (b), can be used. These terms are intended to distinguish the constituent elements from other constituent elements, and the terms do not limit the nature, order or order of the constituent elements. When a component is described as being "connected", "coupled", or "connected" to another component, the component may be directly connected or connected to the other component, Quot; may be "connected," "coupled," or "connected. &Quot;

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.It should be understood that the singular " include "or" have "are to be construed as including a stated feature, number, step, operation, component, It is to be understood that the combination is intended to specify that it does not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하더라도 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
In each step, the identification code (e.g., a, b, c, etc.) is used for convenience of explanation, the identification code does not describe the order of each step, It may occur differently from the order specified. That is, each step may occur in the same order as described, may be performed substantially concurrently, or may be performed in reverse order.

이하, 본 발명에 따른 실시예를 첨부된 예시도면을 참고로 하여 상세하게 설명한다.
Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치를 설명하는 블록도이다. 도 2를 참조하면, 본 발명의 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치(1)는 주행부(10), 스캔부(20), 제어부(30), 패턴 지도 저장부(40), 라인 피팅부(50), 구조물 추출부(60), 구조물 매칭부(70), 위치 계산부(80)를 포함한다.2 is a block diagram illustrating an apparatus for estimating a position of a mobile robot using a laser scanner and a structure of the present invention. Referring to FIG. 2, the position estimation device 1 of the mobile robot using the laser scanner and the structure of the present invention includes a driving unit 10, a scanning unit 20, a control unit 30, a pattern map storage unit 40, The line fitting unit 50, the structure extracting unit 60, the structure matching unit 70, and the position calculating unit 80 are included.

주행부(10)는 모바일 로봇을 이동시키기 위해 구비되며, 모바일 로봇이 이동하기 위한 하나의 수단일 수 있고, 모터 등과 같은 회전 구동체에 의해 움직일 수 있다.The driving unit 10 is provided to move the mobile robot, and may be one means for moving the mobile robot, and may be moved by a rotational drive such as a motor.

스캔부(20)는 레이저 스캐너(Raiser Sanner)를 이용하여 실내 또는 실외에 구비되거나 설치된 구조물을 파악하고, 모바일 로봇의 위치를 파악하거나 기 설정된 이동 방향으로 또는 인공지능으로 이동을 하기 위해 구비될 수 있다. 또한, 스캔부(20)는 이동 방향과 직교하는 또는 이동 방향과 동일한 좌표의 0 도부터 180도까지 스캔할 수 있다.The scan unit 20 may be provided to identify a structure provided or installed indoors or outdoors by using a laser scanner (Raiser Sanner), to determine the position of the mobile robot, or to move in a predetermined movement direction or artificial intelligence. have. Also, the scan unit 20 may scan from 0 degrees to 180 degrees of coordinates orthogonal to the movement direction or the same as the movement direction.

제어부(30)는 각 구성 요소를 제어하며, 각 구성 요소와 네트워크 등으로 연결되어 각 구성 요소의 움직임이나 데이터를 파악하고 명령을 전달하도록 구비된다.The control unit 30 controls each component, and is connected to each component and a network to detect movement or data of each component and transmit a command.

패턴 지도 저장부(40)는 모바일 로봇이 이동하는 장소의 상부면, 또는 상부면 및 전방의 구조물들이 패턴화되어 지도와 같은 형태로 저장된다. 예를 들어, 패턴 지도부(40)는 상기 모바일 로봇이 위치한 바닥면과 대칭되는 상부면에 위치한 상기 구조물을 패턴화하여 저장할 수 있다.The pattern map storage 40 stores the upper surface of the place where the mobile robot moves, or the upper surface and the front structures in a patterned form. For example, the pattern map unit 40 may pattern and store the structure located on an upper surface symmetrical with the bottom surface on which the mobile robot is located.

라인 피팅부(50)는 모바일 로봇이 이동하면서 스캔부(20)를 통해 이동하는 장소의 상부면, 또는 상부면 및 전방의 구조물들을 스캔하면, 스캔부(20)에서 획득된 데이터를 직선으로 피팅하여, 피팅된 라인에서 벗어나는 지점이나 각도 변화가 급격해지는 지점을 특징으로 추출한다. 여기서, 스캔부(20)가 스캔한 데이터를 피팅할 때, Least Squre 피팅 방법, Ransac 알고리즘, Haugh Transform 중 어느 하나를 사용할 수 있다.The line fitting unit 50 scans the upper surface of the place where the mobile robot moves through the scanning unit 20 or the upper surface and the front structures while the mobile robot moves, and then fits the data obtained by the scanning unit 20 in a straight line. Then, the feature is extracted by the point of deviation from the fitted line or the point where the angle change is sharp. Here, when the scan unit 20 fits the scanned data, any one of a Least Squre fitting method, a Ransac algorithm, and a Haugh Transform may be used.

구조물 추출부(60)는 라인 피팅부(50)에서 피팅된 라인에서 벗어나는 지점이나 각도 변화가 급격해지는 지점을 특징으로 추출하면, 이러한 지점을 구조물로 인식하고 추출한다. 예를 들어, 구조물 추출부는 라인 피팅부(50)에서 직선으로 피팅할 때, 피팅된 라인을 기준으로 거리가 제 1 임계값을 초과하거나, 각도가 제 3 임계값을 초과하는 경우, 상기 상부면 또는 전방과 상부면의 특징으로 추출할 수 있다. 여기서, 구조물은 천장 구조물, 상부면과 전방과의 모서리, 오목 또는 볼록한 구조물, 반사 구조물 중 어느 하나일 수 있다. 구조물이 반사 구조물일 경우, 반사 구조물 사이의 거리, 반사 구조물을 이은 선분의 각도, 동시에 추출된 상기 반사 구조물의 개수 중 어느 하나를 이용할 수 있다.When the structure extracting unit 60 extracts a feature that points away from a line fitted in the line fitting unit 50 or a point where an angle change is sharp, the structure extracting unit 60 recognizes and extracts such a point as a structure. For example, when the structure extractor fits in a straight line in the line fitting part 50, when the distance exceeds the first threshold value or the angle exceeds the third threshold value based on the fitted line, the upper surface Or it can be extracted by the features of the front and top surfaces. Here, the structure may be any one of a ceiling structure, an upper surface and a front edge, a concave or convex structure, and a reflective structure. When the structure is a reflective structure, any one of the distance between the reflective structures, the angle of the line segment connecting the reflective structure, and the number of the reflective structures extracted at the same time may be used.

구조물 매칭부(70)는 구조물 추출부(60)에서 추출한 구조물의 패턴과 패턴 지도 저장부(40)에 저장된 패턴 지도와 비교하여, 매칭되는 구조물을 찾아낸다.The structure matching unit 70 compares the pattern of the structure extracted by the structure extracting unit 60 with the pattern map stored in the pattern map storage unit 40 to find a matching structure.

위치 계산부(80)는 구조물 매칭부(70)에서 매칭되는 구조물을 찾아내는 경우, 상부면의 위치에 대칭하는 바닥면에 위치한 모바일 로봇 자신의 위치를 찾아내도록, 변환행렬을 이용하여 계산한다.
When the position calculation unit 80 finds a matching structure in the structure matching unit 70, the position calculation unit 80 calculates the position of the mobile robot located on the bottom surface symmetric to the position of the upper surface by using a transformation matrix.

이하, 상기한 구성으로 그 구동 방법을 상세히 설명한다.Hereinafter, the driving method will be described in detail with the above configuration.

본 발명의 실시예에 따르면, 우선, 모바일 로봇의 패턴 지도 저장부(40)에 상부면, 즉 천장 구조물의 전역 좌표 및 패턴을 지도 형태로 저장한다.According to an embodiment of the present invention, first, the global coordinates and patterns of the upper surface, that is, the ceiling structure, are stored in the map form in the pattern map storage 40 of the mobile robot.

그리고 나서, 실내 주행시 상방 레이저 스캐너와 같은 스캔부(20)를 이용하여 천장을 스캔한다.Then, while driving indoors, the ceiling is scanned using the scan unit 20 such as an upward laser scanner.

여기서, 도 4a를 참조하면, 기존의 전방 스캔을 이용한 방법은 (a)나 (b)와 같이 전방에 장애물이 있거나 움직이는 물체로 인해 특징점 추출을 실패할 가능성이 높았다. 반면, 상방, 즉 천장을 스캔할 경우, 장애물 또는 움직이는 물체에 의한 영향을 최소한으로 줄일 수 있다. 이러한 이유로 본 발명의 실시예에서는 상부면이나 상부면 또는 전방, 즉 천장이나 그 하부의 4면체인 벽면을 이용할 수 있다. 예를 들어, 상부면의 전구나 벽면의 시계나 달력 등 비교적 이동이 적거나 고정된 물체를 구조물로 이용할 수 있다.Here, referring to FIG. 4A, the conventional method using the forward scan has a high possibility of failing feature point extraction due to an obstacle or moving object in front such as (a) or (b). On the other hand, when scanning upwards, that is, the ceiling, the influence of obstacles or moving objects can be minimized. For this reason, in the embodiment of the present invention, it is possible to use the upper surface, the upper surface or the front surface, that is, the wall surface which is the tetrahedron of the ceiling or the lower portion thereof. For example, a relatively small or fixed object such as a light bulb on the upper surface or a clock or calendar on the wall may be used as a structure.

도 4b를 참조하면, 기존에 많이 연구되어온 카메라를 이용한 특징 추출 방법들은 주위의 빛이나 그림자 등 환경의 영향을 많이 받으며, 특징을 추출하는데 필요한 계산량이 영상의 해상도에 비례하는 단점을 가진다. 하지만, 레이저 스캐너의 경우, 인스턴트 장애물이 존재하지 않는다면, 일관성있는 결과를 보장해주며, 특징 추출에 필요한 계산량도 카메라 방법에 비하여 획기적으로 낮다. 예를 들어, 카메라를 이용한 영상 획득의 경우, 일반적인 해상도인 320*240 과 640*480의 경우, 각각 76,800번과 307,200의 계산량이 필요하지만, 레이저 스캐너의 경우, 각도에 따라 180도를 기준으로 1도와 0.5도씩 각각 180번, 360번으로 카메라 방법에 비해 계산량이 획기적으로 줄어들 수 있다.Referring to FIG. 4B, feature extraction methods using cameras, which have been studied a lot, are affected by environment such as ambient light and shadow, and have a disadvantage in that the amount of computation required to extract features is proportional to the resolution of an image. However, in the case of a laser scanner, if there is no instant obstacle, a consistent result is guaranteed, and the calculation amount required for feature extraction is significantly lower than that of the camera method. For example, in the case of image acquisition using a camera, the general resolutions of 320 * 240 and 640 * 480 require 76,800 and 307,200 calculation amounts, respectively, but in the case of a laser scanner, the angle is based on 180 degrees depending on the angle. With 180 degrees and 360 degrees of 0.5 degrees each, the amount of computation can be significantly reduced compared to the camera method.

즉, 스캔부(20)가 전방으로 이동하면서 스캔을 한다고 가정하면, 모바일 로봇이 위치한 장소를 기준으로 우측 벽면의 하부면, 즉 0도 점을 기준으로, 우측 벽면을 레이저의 점 형태로 찍는다고 하면, 우측 벽면의 모서리를 지나 상부, 즉 천장의 자신의 위치와 대응하는 위치까지 찍는 경우, 90도가 된다. 계속하여 90도인 점에서 좌측으로 점을 찍어 스캔을 하다보면 좌측 벽을 타고 내려가면서 180도까지 스캔을 할 수 있다. 이러한 스캔은 점, 선 등의 어떤 형태로도 변형이 가능하며, 이러한 형태 변형에 따라 각도는 더욱 줄어들 수 있다. 정밀도를 위해, 0.5도 간격으로 점 또는 선으로 스캔을 실시한다고 하더라도 360번(360번*0.5도=180도)이므로, 기하급수적으로 계산량이 줄어드는 것을 알 수 있다.That is, assuming that the scan unit 20 scans while moving forward, the right wall is taken as a laser dot based on the bottom surface of the right wall, that is, the zero degree point, based on the location where the mobile robot is located. If it is taken over the edge of the right wall surface to the top, that is, the position corresponding to its own position on the ceiling, it is 90 degrees. If you continue to scan from 90 degrees to the left, you can scan up to 180 degrees down the left wall. Such a scan can be deformed into any shape, such as a point or a line, and the angle can be further reduced according to this shape deformation. For the sake of accuracy, even if scanning is performed with dots or lines at intervals of 0.5 degrees, it is 360 (360 * 0.5 degrees = 180 degrees), so it can be seen that the calculation amount decreases exponentially.

라인 피팅부(50)는 스캔된 데이터와 거리와의 각도 값을 이용하여 양쪽 벽면과 천장면의 데이터를 분리하는 세그멘테이션을 진행한다. 그 이유는, 천장과 벽면을 모바일 로봇 자체 내에서 구분하기 위해서이며, 본 발명의 실시예에서는 천장을 기준으로 패턴 지도를 저장할 수 있고, 이에 따라 패턴 지도는 천장만의 데이터를 보유하고 있으므로, 벽면의 데이터는 제거하기 위해, 벽면과 천장의 데이터는 분리시키는 것이다.The line fitting unit 50 performs segmentation that separates data on both wall and ceiling surfaces using the angle value between the scanned data and the distance. The reason for this is to distinguish the ceiling from the wall within the mobile robot itself. In the embodiment of the present invention, the pattern map can be stored based on the ceiling. In order to remove the data, the data on the walls and ceilings is separated.

라인 피팅부(50)는 분리된 벽면과 천장면의 데이터는 각각 Least-Square 피팅 방법을 이용하여 직선 피팅을 실시하며, 구조물 추출부(60)는 피팅된 라인과 스캔 데이터 간 오차가 특정 제 1 임계값(Threshold) 이상 또는 초과이거나 스캔 데이터에서 반사율이 특정 제 3 임계값 초과 또는 이상인 점을 천장 구조물로 정의하고 추출한다.The line fitting unit 50 performs linear fitting on the separated wall and ceiling surfaces using the Least-Square fitting method, respectively, and the structure extracting unit 60 determines the error between the fitted line and the scan data. The ceiling structure defines and extracts a point whose reflectance is above or above a threshold or above or above a specific third threshold in the scan data.

즉, 레이저 스캐너일 수 있는 스캔부(20)를 이용하여 천장의 특징을 추출하는 방법은 두 가지 방법이 있을 수 있다. 도 5를 참조하여 설명하면, 첫 번째 방법은, 천장과 벽면 사이에 존재하는 모서리나 천장 중간에 존재하는 형광등이나 백열등 등을 천장의 특징으로 추출하는 방법일 수 있다. 이러한 방법은 레이저에서 획득된 데이터를 직선으로 피팅하여, 피팅된 라인에서 벗어나는 지점이나 각도 변화가 급격해지는 지점을 특징으로 추출하는 방법이다. 라인의 직선 피팅 알고리즘으로는 Least Square 피팅 방법, Ransac 알고리즘, Haugh Transform 등의 방법일 수 있고, 도 6a는 첫 번째 방법인 Least Square 방법을 나타낸다.That is, there may be two methods for extracting the feature of the ceiling using the scan unit 20, which may be a laser scanner. Referring to FIG. 5, the first method may be a method of extracting an edge existing between the ceiling and a wall or a fluorescent or incandescent lamp existing in the middle of the ceiling as a feature of the ceiling. This method is a method of extracting a feature characterized in that the data obtained by the laser is fitted in a straight line, the point of departure from the fitted line or the point where the angle change is sharp. The linear fitting algorithm of the line may be a method such as a Least Square fitting method, a Ransac algorithm, a Haugh Transform, and the like, and FIG. 6A illustrates the first method, the Least Square method.

즉, 직선은 피팅된 라인이며, 직선에 위치한 데이터는 스캔 데이터이며, 직선에 위치하지 않은 데이터는 반사율이 높은 스캔 데이터인데, 이러한 직선 피팅을 위한 수식은 하기 수학식 1과 같다.That is, the straight line is a fitted line, the data located on the straight line is scan data, and the data not located on the straight line is scan data having high reflectance. The equation for fitting the straight line is represented by Equation 1 below.

Figure 112012017036925-pat00001
Figure 112012017036925-pat00001

상기 수학식 1을 보면, 직선 방정식이 y=ax+b이고, 스캔 데이터가 Y,x값의 좌표값을 가진다면, i 번째 점의 오차 거리는 스캔 데이터의 오차 거리는 i 번째 스캔 데이터에서 i 번째 직선 방정식을 뺀 것과 같으므로, 전체 오차 S는 그 값을 i는 1 부터 n까지 모두 더한 것과 같다.In Equation 1, if the linear equation is y = ax + b, and the scan data has coordinates of Y and x values, the error distance of the i-th point is the error distance of the scan data is the i-th straight line from the i-th scan data. It is equal to subtracting the equation, so the total error S is equal to the sum of i plus 1 to n.

그리고, 전체 오차를 0에 가깝게 만들기 위해 최소화를 시키다 보면, 피팅된 라인에서 벗어나는 지점이나 각도를 오차율을 최소화하도록 파악할 수 있고, 미리 설정된 거리 임계값인 제 1 임계값이나, 각도 임계값인 제 3 임계값을 초과하는 점들을 찾아낼 수 있게 된다.When minimizing to make the total error close to zero, it is possible to identify a point or angle that deviates from the fitted line so as to minimize the error rate, and the first threshold which is a preset distance threshold or the third which is an angular threshold. It is possible to find the points that exceed the threshold.

두 번째 방법은, 도 6b를 참조하여 설명하면, 리플렉터 또는 미러볼과 같은 인공적인 표식을 특징으로 이용하는 방법이다. 즉, 반사판 등을 이용하는 것인데, 레이저에 대해 반사율이 높은 물체를 벽면과 천장에 설치하여 인공 표식 사이의 각도나 거리를 특징으로 이용하는 방법일 수 있다. 동시에, 근거리에서 추출된 특징들을 묶어 패턴으로 인식함으로써, 패턴 지도와의 매칭 효율과 위치 추정 성능을 높일 수 있다. 패턴 정보로는 도 6b와 같이 특징들 사이의 거리, 각 특징들을 이은 선분의 각도, 동시에 추출된 특징의 개수 등이 이용될 수 있다.The second method, which will be described with reference to FIG. 6B, is a method of using an artificial mark such as a reflector or a mirror ball. In other words, the use of a reflector, etc., may be a method of using an object having a high reflectance with respect to the laser on the wall and the ceiling to use an angle or a distance between the artificial marks. At the same time, by combining features extracted from a short distance and recognizing them as a pattern, matching efficiency and location estimation performance with a pattern map can be improved. As the pattern information, as shown in FIG. 6B, a distance between features, an angle of a line segment connecting each feature, and the number of features simultaneously extracted may be used.

여기서, 천장 구조물은 모바일 로봇의 스캔부(20)가 스캔하였을 때, 천장면 또는 벽면과 구분될 수 있는 볼록하거나 오목한 물체로 적어도 1 개 이상의 구조물이 하나의 세트로 패턴을 이루어 설치될 수 있으며, 패턴 지도 내의 다른 천장 구조물 세트 패턴들과 서로 동일하지 않을 수 있다.Here, the ceiling structure is a convex or concave object that can be distinguished from the ceiling surface or the wall surface when the scan unit 20 of the mobile robot scans, at least one structure may be installed in a pattern as a set, It may not be the same as other ceiling structure set patterns in the pattern map.

구조물 추출부(60)는 이러한 구조물을 하나의 세트로 인지하고 추출할 수 있으며, 구조물 매칭부(70)는 추출된 패턴을 지도상의 각 구조물 세트의 패턴과 매칭하여 오차가 제 2 임계값 이하인 구조물을 찾고, 매칭된 구조물을 찾게 되면, 로봇 좌표계에서 전역 좌표계로 변환하는 변환 행렬의 역행렬을 매칭된 구조물 좌표에 곱함으로써 로봇의 위치를 계산한다.The structure extracting unit 60 may recognize and extract such a structure as a set, and the structure matching unit 70 matches the extracted pattern with the pattern of each structure set on the map, so that the error is less than or equal to the second threshold. When the matched structure is found, the position of the robot is calculated by multiplying the matched structure coordinates by the inverse of the transformation matrix transformed from the robot coordinate system to the global coordinate system.

본 발명의 실시예에서는, 구조물 매칭부(70)에서 패턴 지도와 추출된 패턴을 매칭시키는 방법에는 두 가지일 수 있다. 첫 번째는, 패턴 지도의 크기가 크지 않은 경우, 모바일 로봇에서 추출된 패턴을 저장된 지도의 패턴들과 모두 비교함으로써, 모바일 로봇의 위치를 추정하는 것이다.In the embodiment of the present invention, there are two methods for matching the pattern map and the extracted pattern in the structure matching unit 70. First, when the size of the pattern map is not large, the position of the mobile robot is estimated by comparing the patterns extracted by the mobile robot with all the patterns of the stored map.

두 번째는, 지도의 크기가 크며 지도에 저장된 패턴들의 개수가 많고, 패턴이 복잡한 경우에는 파티클 필터와 같은 최적 예측 기법을 적용할 수 있다. 파티클 필터를 이용한 위치 추정 방법은 하기와 같다.Second, when the size of the map is large, the number of patterns stored in the map is large, and the pattern is complicated, an optimal prediction technique such as a particle filter may be applied. The position estimation method using the particle filter is as follows.

6-1과 같이, 각 파티클은 모바일 로봇의 위치 정보를 가지며, 초기화와 함께 지도 전역에 고르게 뿌려진다. 초기의 파티클은 모두 동일한 가중치를 가지며, 패턴 지도상의 패턴은 모두 다른 패턴을 가지고 있다.Like 6-1, each particle has the location information of the mobile robot and is evenly scattered over the map with initialization. The initial particles all have the same weight, and the patterns on the pattern map all have different patterns.

모바일 로봇의 센서로부터 계측된 선속도, 각속도 정보를 이용하여 6-2와 같이 모든 파티클을 동일하게 이동시킨다. 즉 모바일 로봇이 예를 들어 남서쪽으로 이동했다고 가정하면, 남서쪽으로 이동된 길이만큼, 모든 파티클을 모바일 로봇에 저장된 패턴 지도상에서 옮겨가도록 한다. 단, 지도에 그려진 패턴들은 고정된 값이므로, 이동하지 않는다. 이때, 각속도, 선속도 계측 센서 오차만큼 노이즈 데이터를 추가하여 샘플링할 수 있다.Using the linear velocity and angular velocity information measured from the sensor of the mobile robot, all particles are moved equally as in 6-2. In other words, assuming that the mobile robot has moved southwest, for example, all particles are moved on the pattern map stored in the mobile robot by the length moved southwest. However, patterns drawn on the map are fixed values and do not move. In this case, noise data may be added and sampled by the angular velocity and linear velocity measurement sensor error.

모바일 로봇에서 패턴의 관측이 이루어지는 경우, 각 파티클의 위치에서 해당 패턴을 탐색한 후, 그 정보를 파탕으로 파티클별 가중치를 6-3과 같이 둔다.When a pattern is observed in a mobile robot, the pattern is searched for at each particle position, and the weight of each particle is set as 6-3 based on the information.

가중치가 일정 이하로 떨어진 파티클은 삭제하고, 삭제된 만큼 가중치가 높은 파티클을 6-5와 같이 복제한다. 예를 들어, 10개의 파티클이 모바일 로봇의 패턴 지도상에 균일하게 뿌려졌고, 모바일 로봇이 이동하면서 실제 존재하는 가장 가까운 패턴과 매칭되는 패턴을 찾아내었다고 가정하자. 물론, 모바일 로봇은 매칭 오차율이 가장 낮은, 즉 매칭율이 가장 높은 패턴을 찾을 때까지 이동하게 되고, 이에 따라 파티클들은 모두 같은 방향 및 거리로 이동하게 된다. 오차율이 가장 낮은, 즉 매칭율이 가장 높은, 실제 패턴의 위치를 찾아냈다고 가정하면, 패턴 지도상의 위치를 자신의 위치라고 추정할 수도 있다. 하지만, 지도가 크고 넓은 상황에서는, 그 패턴의 위치를 자신의 위치로 추정하기에는 오차 범위가 커질 수 있다.Particles whose weight falls below a certain level are deleted, and particles that are as high as the weight are deleted as shown in 6-5. For example, suppose that 10 particles were evenly scattered on a pattern map of a mobile robot, and as the mobile robot moved, it found a pattern that matches the closest pattern that actually exists. Of course, the mobile robot moves until it finds the pattern with the lowest matching error rate, that is, the highest matching rate, so that the particles all move in the same direction and distance. Assuming that the position of the actual pattern having the lowest error rate, that is, the highest matching rate, is found, the position on the pattern map may be estimated as its own position. However, in large and wide maps, the margin of error can be large to estimate the position of the pattern as its own position.

따라서, 매칭된 패턴과 가장 가까운 파티클에만 가중치를 주고, 그 과정을 반복하여 복제를 해감으로써, 매칭된 패턴과 가장 가까운 파티클의 위치를 자신의 위치라고 추정한다면, 그 오차는 훨씬 줄어들게 된다.Therefore, by weighting only the particles closest to the matched pattern and repeating the process, if the position of the particle closest to the matched pattern is estimated as its own position, the error is much reduced.

즉, 패턴은 5m마다 배치되어 있고, 파티클을 복제하여 집중시키다 보면, cm단위로 파티클이 배치될 수 있고, 그 파티클과 가장 가까운 패턴을 찾고, 패턴과 가장 가까운 파티클의 위치를 모바일 로봇 자신의 위치라고 가정하면, 그 파티클과 패턴과의 거리는 cm 단위로 줄어들어 있기 때문에, 오차단위는 100/1로 줄어들 수 있게 되는 것이다.That is, the patterns are arranged every 5m, and when the particles are duplicated and concentrated, the particles may be arranged in cm units, the pattern closest to the particles is found, and the position of the particle closest to the pattern is determined by the position of the mobile robot itself. If we assume that the distance between the particle and the pattern is reduced in cm, the error unit can be reduced to 100/1.

따라서, 가중치가 일정 이하로 떨어진 파티클은 삭제하고, 삭제된 만큼 가중치가 높은 파티클을 복제하며, 계속적으로 과정을 반복하여 특정 범위 안에 수렴하면, 최대 가중치 파티클(Maximum Weighted Particle)이나 가중치 평균(Weighted Mean)을 이용하여 로봇의 위치를 추정할 수 있게 된다.Therefore, if the weight falls below a certain level, delete the particles, duplicate the weights as high as they are deleted, and repeat the process continuously to converge within a certain range, so that the maximum weighted particle or the weighted mean ) Can be used to estimate the position of the robot.

도 7의 과정은 로봇이 이동하며 패턴과 가장 가까운 파티클을 찾는 과정을 설명하였지만, 움직이지 않고 고정된 상태에서 가중치를 계산하여 가장 가까운 파티클을 자신의 위치로 추정할 수도 있고, 이동하면서 파티클을 뿌리는 형식으로 가능할 수도 있고, 도면에 표시된 1 내지 5의 숫자는 순서대로 일어나지 않을 수도 있으며, 그 한 과정만으로도 위치추정이 가능할 수도 있고, 다양하게 변경 및 변형이 가능하다.
Although the process of FIG. 7 has described the process of finding the particle closest to the pattern as the robot moves, it is possible to estimate the nearest particle to its position by calculating the weight in a fixed state without moving, or rooting the particle while moving. The number may be in the form, the numbers 1 to 5 shown in the drawings may not occur in order, it may be possible to estimate the location only by one process, and various changes and modifications are possible.

도 3은 본 발명의 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정방법을 도시한 흐름도이다. 도 3에 도시된 바와 같이, 모바일 로봇에 구조물을 패턴 형태로 저장하고(S10), 모바일 로봇이 주행하면서(S20), 스캔부에서 실내 등의 천장과 같은 상부면을 스캔하면(S30), 라인 피팅부는 천장면과 벽을 구분하기 위해서 데이터 세그먼테이션을 실시한다(S30).3 is a flowchart illustrating a method for estimating a position of a mobile robot using a laser scanner and a structure of the present invention. As shown in FIG. 3, when the structure is stored in a pattern form in the mobile robot (S10), while the mobile robot travels (S20), when the upper surface such as the ceiling of the room is scanned in the scan unit (S30), the line The fitting unit performs data segmentation to distinguish the ceiling surface from the wall (S30).

라인 피팅부에서 천장면과 벽을 구분하여 천장면의 세그먼트와 벽의 세그먼트가 구분되었으면, 세그먼트별로 라인피팅을 실시하고(S43), 라인 오차가 거리 오차인 제 1 임계값 이상 또는 초과인지, 또는 각도 오차인 제 3 임계값 이상 또는 초과인지(미도시)의 여부를 확인한다(S45).If the ceiling fitting and the wall are divided by the line fitting part, the segment of the ceiling and the segment of the wall are divided, and line fitting is performed for each segment (S43), and if the line error is greater than or greater than the first threshold, which is a distance error, or It is checked whether the angle error is equal to or greater than the third threshold value (not shown) (S45).

구조물 추출부는 거리 오차나 각도 오차가 발생한 부분을 구조물이라고 인식하고, 해당 구조물을 추출하여 패턴화하며(S50), 구조물 매칭부에서 패턴 지도 저장부에 저장된 패턴 지도와 구조물 추출부에서 추출한 패턴을 매칭시킨다(S61).The structure extracting unit recognizes a portion where a distance error or an angular error has occurred as a structure, extracts and patterns the structure (S50), and matches the pattern map stored in the pattern map storage unit with the pattern extracted by the structure extracting unit in the structure matching unit. (S61).

매칭 오차가 제 2 임계값 이하인 경우(S63), 매칭율이 높은 것을 의미하므로, 위치 계산부에서 변환 행렬을 이용하여 해당 구조물의 위치의 상대적인 위치인 로봇의 위치를 계산한다(S70).
If the matching error is less than or equal to the second threshold value (S63), since the matching rate is high, the position calculating unit calculates the position of the robot, which is a relative position of the position of the corresponding structure, using the transformation matrix (S70).

본 발명의 개시된 기술은 모바일 로봇의 천정이나 벽면을 레이저 스캐너로 스캔함으로써, 전방이나 바닥면에 장애물이 있거나 움직이는 물체가 존재하더라도, 특징점을 용이하게 추출할 수 있고, 레이저 스캐너를 이용하여 바닥면을 벽면 및 상부면을 촬영하기 위해, 0 도부터 180도까지 촬영함으로써, 특징 추출에 필요한 계산량이 기하급수적으로 줄어들 수 있으며, 모바일 로봇이 이동하면서 자신의 위치를 파악하는데 높은 사양이 요구되지 않아, 저 사양으로 적은 부하를 가지고 빠른 시간 내에 자신의 위치를 추출하여 원하는 위치로 적은 시간으로도 이동할 수 있으므로, 오류율이 낮아 신뢰성은 높으면서도 낮은 단가로 모바일 로봇을 생산할 수 있어 가격의 우위를 선점함과 동시에 고객 만족을 실현할 수 있다.
The disclosed technology of the present invention scans the ceiling or the wall of a mobile robot with a laser scanner, so that even if there are obstacles or moving objects on the front or the bottom, feature points can be easily extracted, and the bottom surface can be extracted using a laser scanner. By shooting from 0 to 180 degrees to capture the wall and upper surface, the calculation required for feature extraction can be reduced exponentially, and high specifications are not required for mobile robots to locate themselves as they move. With its low load, it can extract its location in a short time and move it to the desired location in a short time, so it is possible to produce mobile robots with high reliability and low unit cost with low error rate. Customer satisfaction can be realized.

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.The present invention is not necessarily limited to these embodiments, as all the constituent elements constituting the embodiment of the present invention are described as being combined or operated in one operation. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. In addition, such a computer program may be stored in a computer-readable medium such as a USB memory, a CD disk, a flash memory, etc., and read and executed by a computer, thereby implementing embodiments of the present invention. As the storage medium of the computer program, a magnetic recording medium, an optical recording medium, a carrier wave medium, or the like may be included.

또한, 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 상세한 설명에서 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Furthermore, all terms including technical or scientific terms have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined in the Detailed Description. Terms used generally, such as terms defined in a dictionary, should be interpreted to coincide with the contextual meaning of the related art, and shall not be interpreted in an ideal or excessively formal sense unless explicitly defined in the present invention.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 또한, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이며, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 따라서, 본 발명의 보호 범위는 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. In addition, the embodiments disclosed in the present invention are not intended to limit the scope of the present invention but to limit the scope of the technical idea of the present invention. Accordingly, the scope of protection of the present invention should be construed according to the claims, and all technical ideas within the scope of equivalents should be interpreted as being included in the scope of the present invention.

1: 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치
10: 주행부 20: 스캔부
30: 제어부 40: 패턴 지도 저장부
50: 라인 피팅부 60: 구조물 추출부
70: 구조물 매칭부 80: 위치 계산부
1: Positioning device of mobile robot using laser scanner and structure
10: driving unit 20: scanning unit
30: control unit 40: pattern map storage unit
50: line fitting portion 60: structure extraction portion
70: structure matching unit 80: position calculation unit

Claims (11)

레이저 스캐너 및 구조물을 이용하여 모바일 로봇의 위치를 추정하는 장치에 있어서,
모바일 로봇이 주행하는 위치의 상부면 또는 전방과 상부면을 스캔하는 스캔부;
구조물을 패턴화하여 미리 패턴 지도로 저장하는 패턴 지도부;
상기 모바일 로봇이 주행하면서 상기 상부면 또는 전방과 상부면을 스캔하면, 상기 스캔부에서 스캔한 데이터를 직선으로 피팅하는 라인 피팅부;
상기 피팅한 라인과의 거리 또는 각도가 제 1 임계값을 초과하면 구조물로 추출하는 구조물 추출부;
상기 추출된 구조물과 상기 패턴 지도와 매칭하되, 매칭율이 제 2 임계값 이하의 구조물을 추출하는 구조물 매칭부;
상기 구조물 매칭부에서 추출한 구조물의 좌표 및 변환행렬을 이용하여 상기 모바일 로봇의 위치를 계산하는 위치 계산부를 포함하며,
상기 패턴 지도부는 상기 모바일 로봇이 위치한 바닥면과 대칭되는 상부면에 위치한 상기 구조물을 패턴화하여 저장한 것을 특징으로 하는 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치.
An apparatus for estimating the position of a mobile robot using a laser scanner and a structure,
A scan unit scanning an upper surface or a front and an upper surface of a position where the mobile robot travels;
A pattern map unit which patterns the structure and stores the pattern map in advance;
A line fitting unit fitting the data scanned by the scan unit in a straight line when the mobile robot scans the upper surface or the front and upper surfaces while driving;
A structure extracting unit extracting a structure when the distance or angle with the fitted line exceeds a first threshold value;
A structure matching unit which matches the extracted structure with the pattern map and extracts a structure having a matching ratio less than or equal to a second threshold value;
It includes a position calculation unit for calculating the position of the mobile robot using the coordinates and the transformation matrix of the structure extracted by the structure matching unit,
The pattern map unit is a laser scanner and the position estimation device of the mobile robot using the structure, characterized in that for storing the patterned structure located on the upper surface symmetrical to the bottom surface on which the mobile robot is located.
제 1 항에 있어서,
상기 스캔부는 레이저 스캐너이고, 이동 방향과 직교하는 또는 이동 방향과 동일한 좌표의 0 도부터 180도까지 스캔하는 것을 특징으로 하는 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치.
The method of claim 1,
The scanning unit is a laser scanner, the position estimation device of the mobile robot using a laser scanner and the structure, characterized in that scanning from 0 to 180 degrees of the coordinates orthogonal to the movement direction or the same as the movement direction.
삭제delete 제 1 항에 있어서,
상기 라인 피팅부는 상기 스캔부가 스캔한 데이터를 피팅할 때, Least Square 피팅 방법, Ransac 알고리즘, Haugh Transform 중 어느 하나를 사용하는 것을 특징으로 하는 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치.
The method of claim 1,
The line fitting unit is a laser scanner and the position estimation device of the mobile robot using a structure, characterized in that any one of the method of fitting the scanned data, the Least Square fitting method, Ransac algorithm, Haugh Transform.
제 1 항에 있어서,
상기 구조물 추출부는 상기 라인 피팅부에서 직선으로 피팅할 때, 상기 피팅된 라인을 기준으로 거리가 제 1 임계값을 초과하거나, 각도가 제 3 임계값을 초과하는 경우, 상기 상부면 또는 전방과 상부면의 특징으로 추출하는 것을 특징으로 하는 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치.
The method of claim 1,
When the structure extractor fits in a straight line in the line fitting part, when the distance exceeds the first threshold value or the angle exceeds the third threshold value based on the fitted line, the upper surface or the front and the upper part Positioning device for a mobile robot using a laser scanner and the structure, characterized in that the extraction as a feature of the surface.
제 1 항에 있어서,
상기 구조물은 천장 구조물, 상기 상부면과 전방과의 모서리, 오목 또는 볼록한 구조물, 반사 구조물 중 어느 하나인 것을 특징으로 하는 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치.
The method of claim 1,
Wherein the structure is a position of the mobile robot using a laser scanner and the structure, characterized in that any one of a ceiling structure, the upper surface and the front edge, concave or convex structure, reflective structure.
제 6 항에 있어서,
상기 구조물이 반사 구조물일 경우, 상기 반사 구조물 사이의 거리, 상기 반사 구조물을 이은 선분의 각도, 동시에 추출된 상기 반사 구조물의 개수 중 어느 하나를 이용하고, 상기 반사 구조물의 반사율이 미리 설정된 임계값을 초과하는 경우, 상기 구조물 추출부에서 구조물로 추출하는 것을 특징으로 하는 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치.
The method according to claim 6,
When the structure is a reflective structure, any one of a distance between the reflective structures, an angle of a line segment connecting the reflective structure, and the number of the reflective structures extracted simultaneously is used, and the reflectance of the reflective structure is set to a preset threshold value. When exceeding, the position extraction device of the mobile robot using a laser scanner and the structure, characterized in that for extracting the structure from the structure extraction unit.
레이저 스캐너 및 구조물을 이용하여 모바일 로봇의 위치를 추정하는 방법에 있어서,
모바일 로봇이 주행하는 위치의 상부면 또는 전방과 상부면이 스캔 및 패턴화되어 패턴 지도로 저장되는 제 1 단계;
상기 모바일 로봇이 주행하며 주행 방향과 직교하는 좌표를 기준으로 180도 스캔하고, 상기 상부면 또는 전방과 상부면에 위치한 구조물을 추출하는 제 2 단계;
상기 추출된 구조물과 상기 패턴 지도를 비교하여 매칭된 구조물을 찾는 경우, 로봇 좌표계에서 전역 좌표계로 변환하는 변환 행렬의 역행렬을 매칭된 구조물 좌표에 연산하여 상기 모바일 로봇의 위치를 산출하는 제 3 단계를 포함하며,
상기 제 2 단계는
상기 스캔을 실시한 후, 상기 스캔한 데이터의 각도와 거리를 이용하여 상부면과 전방을 분리하는 세그먼테이션을 실시하는 단계;
Least Square 피팅 방법으로 직선 피팅을 하여 피팅된 라인과 상기 스캔 데이터 간의 오차가 거리 오차인 제 1 임계값, 각도 오차인 제 3 임계값 이상인 경우, 상기 구조물로 추출하는 단계;
상기 구조물이 반사 구조물인 경우, 상기 스캔 데이터의 반사율이 일정 임계값 이상인 경우, 상기 구조물로 추출하는 단계를 포함하는 것을 특징으로 하는 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정방법.
In the method for estimating the position of the mobile robot using a laser scanner and the structure,
A first step of scanning and patterning the upper surface or the front and the upper surface of the position where the mobile robot travels and storing the pattern map;
A second step of scanning the mobile robot 180 degrees based on coordinates orthogonal to the driving direction and extracting the structures located on the upper surface or the front and upper surfaces;
Comparing the extracted structure and the pattern map to find a matched structure, a third step of calculating the position of the mobile robot by calculating the inverse of the transformation matrix transformed from the robot coordinate system to the global coordinate system to the matched structure coordinates Include,
The second step
After performing the scan, performing segmentation to separate the upper surface and the front by using the angle and the distance of the scanned data;
Extracting into the structure when an error between the line fitted by the straight fitting method using the least square fitting method and the scan data is equal to or greater than a first threshold value that is a distance error and a third threshold value that is an angle error;
If the structure is a reflective structure, if the reflectance of the scan data is more than a predetermined threshold value, extracting to the structure comprising a laser scanner and a method for estimating the position of the mobile robot using the structure.
삭제delete 제 8 항에 있어서,
상기 제 3 단계는
상기 패턴 지도에 적어도 하나 이상의 동일한 가중치를 가지는 파티클을 분포시키는 단계;
상기 모바일 로봇에서 스캔하여 상기 구조물이 추출될 경우, 상기 적어도 하나 이상의 파티클의 위치에서 상기 구조물과의 거리를 계산하여 상기 거리가 최소일수록 가중치를 비례하여 부여하는 단계;
상기 가중치가 일정 가중치 이하인 파티클은 삭제하고, 상기 삭제된 파티클을 일정 가중치 초과인 파티클 근처에 복제하여 위치시키는 단계;
상기 파티클이 일정 오차 범위 내에 수렴하면, 일정 오차 범위 내에 있는 파티클 중 상기 오차 범위가 가장 낮은 파티클의 위치를 상기 모바일 로봇의 위치로 추정하는 단계를 포함하고,
상기 로봇의 위치로 추정하는 단계는 최대 가중치 파티클(Maximum Weighted Particle), 파티클 평균(Weighted Mean) 중 적어도 하나를 이용하는 것을 특징으로 하는 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정방법.
The method of claim 8,
In the third step,
Distributing at least one particle having the same weight on the pattern map;
When the structure is extracted by scanning from the mobile robot, calculating a distance to the structure at the position of the at least one particle and giving a weight proportionally as the distance is minimum;
Deleting particles whose weight is less than or equal to a predetermined weight, and replicating and deleting the deleted particles near particles that are greater than or equal to a predetermined weight;
If the particle converges within a certain error range, estimating the position of the particle having the lowest error range among the particles within a certain error range as the position of the mobile robot,
And estimating the position of the robot using at least one of a maximum weighted particle and a weighted mean.
제 10 항에 있어서,
상기 모바일 로봇이 주행할 경우, 상기 주행하는 모바일 로봇의 선속도 및 각속도를 이용하여 상기 모바일 로봇이 주행하는 방향 및 거리로 상기 적어도 하나의 파티클을 이동시키는 단계
를 더 포함하는 것을 특징으로 하는 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정방법.
11. The method of claim 10,
Moving the at least one particle in a direction and a distance in which the mobile robot travels using the linear speed and the angular velocity of the mobile robot running when the mobile robot travels;
Positioning method of the mobile robot using a laser scanner and the structure, characterized in that it further comprises.
KR1020120021347A 2012-02-29 2012-02-29 Device and method for estimating location of mobile robot using raiser scanner and structure KR101341204B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120021347A KR101341204B1 (en) 2012-02-29 2012-02-29 Device and method for estimating location of mobile robot using raiser scanner and structure

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120021347A KR101341204B1 (en) 2012-02-29 2012-02-29 Device and method for estimating location of mobile robot using raiser scanner and structure

Publications (2)

Publication Number Publication Date
KR20130099667A KR20130099667A (en) 2013-09-06
KR101341204B1 true KR101341204B1 (en) 2013-12-12

Family

ID=49450938

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120021347A KR101341204B1 (en) 2012-02-29 2012-02-29 Device and method for estimating location of mobile robot using raiser scanner and structure

Country Status (1)

Country Link
KR (1) KR101341204B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160087687A (en) 2015-01-14 2016-07-22 부산대학교 산학협력단 Localization method of mobile robot using magnetic and IMU
KR20170088228A (en) 2016-01-22 2017-08-01 경희대학교 산학협력단 Map building system and its method based on multi-robot localization
KR20230143818A (en) 2022-04-06 2023-10-13 현대무벡스 주식회사 Method for Calibration Between the Mobile Robot and the Scanners
KR20230143819A (en) 2022-04-06 2023-10-13 현대무벡스 주식회사 Method for Calibration Between Scanners in Mobile Robots

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201318185D0 (en) 2013-10-14 2013-11-27 Guidance Navigation Ltd Tracking device
EP3144765B1 (en) 2015-09-18 2020-01-08 Samsung Electronics Co., Ltd. Apparatus for localizing cleaning robot, cleaning robot, and controlling method of cleaning robot
CN110495817B (en) * 2019-08-30 2021-12-10 深圳市银星智能科技股份有限公司 Recharging and docking method and system for cleaning equipment with laser radar
CN112327325B (en) * 2020-09-16 2024-05-14 安歌智慧科技(上海)有限公司 Method for improving 2D-SLAM precision and stability based on characteristic road sign
CN112162294B (en) * 2020-10-10 2023-12-15 北京布科思科技有限公司 Robot structure detection method based on laser sensor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008076252A (en) * 2006-09-21 2008-04-03 Matsushita Electric Works Ltd Own position recognition system
KR20110132659A (en) * 2010-06-03 2011-12-09 고려대학교 산학협력단 Localizing method for mobile robot

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008076252A (en) * 2006-09-21 2008-04-03 Matsushita Electric Works Ltd Own position recognition system
KR20110132659A (en) * 2010-06-03 2011-12-09 고려대학교 산학협력단 Localizing method for mobile robot

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
논문1.2011 *
논문2.2011 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160087687A (en) 2015-01-14 2016-07-22 부산대학교 산학협력단 Localization method of mobile robot using magnetic and IMU
KR20170088228A (en) 2016-01-22 2017-08-01 경희대학교 산학협력단 Map building system and its method based on multi-robot localization
KR20230143818A (en) 2022-04-06 2023-10-13 현대무벡스 주식회사 Method for Calibration Between the Mobile Robot and the Scanners
KR20230143819A (en) 2022-04-06 2023-10-13 현대무벡스 주식회사 Method for Calibration Between Scanners in Mobile Robots

Also Published As

Publication number Publication date
KR20130099667A (en) 2013-09-06

Similar Documents

Publication Publication Date Title
KR101341204B1 (en) Device and method for estimating location of mobile robot using raiser scanner and structure
JP7353747B2 (en) Information processing device, system, method, and program
CN110312912B (en) Automatic vehicle parking system and method
US10935383B1 (en) Methods for finding the perimeter of a place using observed coordinates
CN108253958B (en) Robot real-time positioning method in sparse environment
TWI827649B (en) Apparatuses, systems and methods for vslam scale estimation
CN108290294B (en) Mobile robot and control method thereof
CN104536445B (en) Mobile navigation method and system
KR100785784B1 (en) System and method for calculating locations by landmark and odometry
KR101988083B1 (en) Systems and methods for tracking location of movable target object
KR100493159B1 (en) Landmark, apparatus and method for determining position of autonomous vehicles effectively
JP2019529209A (en) System, method and non-transitory computer readable storage medium for parking a vehicle
US20110194755A1 (en) Apparatus and method with traveling path planning
KR100901311B1 (en) Autonomous mobile platform
KR20110122022A (en) Apparatus for building map and method thereof
KR20210132674A (en) Systems and methods for calibration of the pose of a sensor relative to a material handling vehicle
US11561102B1 (en) Discovering and plotting the boundary of an enclosure
WO2018228258A1 (en) Mobile electronic device and method therein
KR100784125B1 (en) Method for extracting coordinates of landmark of mobile robot with a single camera
KR100590210B1 (en) Method for mobile robot localization and navigation using RFID, and System for thereof
KR102481615B1 (en) Method and system for collecting data
KR100703882B1 (en) Mobile robot capable of pose sensing with a single camera and method thereof
KR20200043329A (en) Method and system for collecting data
Ray et al. Simultaneous Localisation and Image Intensity Based Occupancy Grid Map Building--A New Approach
JP7461737B2 (en) Mobile object and its navigation system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171204

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee