KR102547274B1 - Moving robot and method for estiating location of moving robot - Google Patents

Moving robot and method for estiating location of moving robot Download PDF

Info

Publication number
KR102547274B1
KR102547274B1 KR1020180109304A KR20180109304A KR102547274B1 KR 102547274 B1 KR102547274 B1 KR 102547274B1 KR 1020180109304 A KR1020180109304 A KR 1020180109304A KR 20180109304 A KR20180109304 A KR 20180109304A KR 102547274 B1 KR102547274 B1 KR 102547274B1
Authority
KR
South Korea
Prior art keywords
mobile robot
time
feature information
information
location
Prior art date
Application number
KR1020180109304A
Other languages
Korean (ko)
Other versions
KR20200030738A (en
Inventor
김기현
김현숙
정진수
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020180109304A priority Critical patent/KR102547274B1/en
Publication of KR20200030738A publication Critical patent/KR20200030738A/en
Application granted granted Critical
Publication of KR102547274B1 publication Critical patent/KR102547274B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 출원은 이동 로봇 및 이의 위치 인식 방법에 관한 것으로서, 본 발명의 일 실시예에 의한 이동 로봇의 위치 인식 방법은, 카메라 및 레이저 센서를 포함하는 이동 로봇의 위치 인식 방법에 관한 것으로서, 상기 카메라 및 레이저 센서로부터 t 시점의 영상정보 및 깊이정보를 각각 수신하고, 수신한 상기 영상정보 및 깊이정보를 정합(calibration)하는 정합단계; 상기 영상정보 중에서 상기 레이저 센서의 레이저 라인이 조사되는 영역을 관심영역(ROI: Region of Interest)으로 설정하고, 상기 관심영역에서 추출한 에지 프로파일(edge profile)에 상기 깊이정보를 결합하여, 상기 t 시점의 특징정보를 생성하는 특징정보 생성단계; 및 ICP(Iterative Closest Point) 알고리즘을 이용하여, t 시점의 특징정보와 t-1 시점의 부분 특징정보를 비교하고, 상기 비교결과를 통하여 상기 이동 로봇의 포즈(pose) 및 위치를 추정하는 위치추정단계를 포함할 수 있다.The present application relates to a mobile robot and a method for recognizing a location thereof, and a method for recognizing a location of a mobile robot according to an embodiment of the present invention relates to a method for recognizing a location of a mobile robot including a camera and a laser sensor, wherein the camera and A matching step of receiving image information and depth information at time t from a laser sensor, respectively, and calibrating the received image information and depth information; Among the image information, a region irradiated with a laser line of the laser sensor is set as a region of interest (ROI), and the depth information is combined with an edge profile extracted from the region of interest to obtain the time t Characteristic information generation step of generating feature information of; and location estimation that compares feature information at time t and partial feature information at time t-1 using an Iterative Closest Point (ICP) algorithm, and estimates the pose and position of the mobile robot through the comparison result. steps may be included.

Description

이동 로봇 및 이의 위치 인식 방법 {Moving robot and method for estiating location of moving robot}Moving robot and method for recognizing its location {Moving robot and method for estiating location of moving robot}

본 출원은 이동 로봇 및 이의 위치 인식 방법에 관한 것으로서, 더욱 상세하게는 카메라 및 레이저 센서를 이용하여 로봇의 자기 위치를 추정할 수 있는 이동 로봇 및 이의 위치 인식 방법에 관한 것이다. The present application relates to a mobile robot and a method for recognizing a location thereof, and more particularly, to a mobile robot capable of estimating its own position using a camera and a laser sensor and a method for recognizing a location thereof.

최근 로봇 기술의 발전에 따라 스스로 경로를 설정하고 이동하는 이동 로봇이 활용되고 있다. 이동 로봇이 공간에서 효과적으로 위치를 판단하며 이동하기 위해서는 이동하고 있는 공간에 대한 지도를 생성하면서 공간 상의 자신의 위치를 인식하는 것이 요구된다.Recently, with the development of robot technology, a mobile robot that sets a path and moves by itself is being used. In order for a mobile robot to effectively determine its position in space and move, it is required to recognize its own position in space while generating a map of the space it is moving in.

이동 로봇은 자이로스코프와 구동 모터에 구비된 엔코더를 이용하여 추측 항법(dead reckoning)으로 주행하며, 상부에 설치된 카메라를 이용하여 영상을 분석하여 지도를 생성하고, 이때 자이로스코프와 엔코더로부터의 주행 정보에 의한 오차가 발생하는 경우 카메라로부터 획득된 영상 정보를 활용하여 누적되는 오차를 보정한다.The mobile robot travels by dead reckoning using a gyroscope and an encoder provided in a drive motor, and analyzes an image using a camera installed on the top to create a map. At this time, driving information from the gyroscope and encoder If an error occurs due to , the accumulated error is corrected using the image information obtained from the camera.

등록특허공보 10-1776621 (2017.09.11)Registered Patent Publication No. 10-1776621 (2017.09.11)

본 출원은, 카메라 및 레이저 센서를 이용하여 이동 로봇의 자기 위치를 추정할 수 있는 이동 로봇 및 이의 위치 인식 방법을 제공하고자 한다. The present application is intended to provide a mobile robot capable of estimating its own position using a camera and a laser sensor and a method for recognizing its position.

본 발명의 일 실시예에 의한 이동 로봇의 위치 인식 방법은, 카메라 및 레이저 센서를 포함하는 이동 로봇의 위치 인식 방법에 관한 것으로서, 상기 카메라 및 레이저 센서로부터 t 시점의 영상정보 및 깊이정보를 각각 수신하고, 수신한 상기 영상정보 및 깊이정보를 정합(calibration)하는 정합단계; 상기 영상정보 중에서 상기 레이저 센서의 레이저 라인이 조사되는 영역을 관심영역(ROI: Region of Interest)으로 설정하고, 상기 관심영역에서 추출한 에지 프로파일(edge profile)에 상기 깊이정보를 결합하여, 상기 t 시점의 특징정보를 생성하는 특징정보 생성단계; 및 ICP(Iterative Closest Point) 알고리즘을 이용하여, t 시점의 특징정보와 t-1 시점의 부분 특징정보를 비교하고, 상기 비교결과를 통하여 상기 이동 로봇의 포즈(pose) 및 위치를 추정하는 위치추정단계를 포함할 수 있다. A method for recognizing a location of a mobile robot according to an embodiment of the present invention relates to a method for recognizing a location of a mobile robot including a camera and a laser sensor, and receives image information and depth information at a point in time t from the camera and laser sensor, respectively. and a calibrating step of calibrating the received image information and depth information; Among the image information, a region irradiated with a laser line of the laser sensor is set as a region of interest (ROI), and the depth information is combined with an edge profile extracted from the region of interest to obtain the time t Characteristic information generation step of generating feature information of; and location estimation that compares feature information at time t and partial feature information at time t-1 using an Iterative Closest Point (ICP) algorithm, and estimates the pose and position of the mobile robot through the comparison result. steps may be included.

여기서 상기 정합단계는, 상기 카메라와 레이저 센서의 설치위치에 따라 좌표변환을 수행하여, 상기 영상정보와 깊이정보의 좌표가 일치하도록 정합좌표를 설정할 수 있다. Here, in the matching step, coordinate conversion may be performed according to the installation positions of the camera and the laser sensor, and matching coordinates may be set so that the coordinates of the image information and the depth information match.

여기서 상기 특징정보 생성단계는, 상기 정합좌표를 이용하여, 상기 영상정보 중에서 상기 레이저 라인이 조사된 영역을 추출하고, 상기 레이저 라인을 기준으로 설정간격 이격된 범위를 상기 관심영역으로 설정할 수 있다. Here, in the feature information generating step, a region irradiated with the laser line may be extracted from the image information using the matching coordinates, and a range separated by a set interval based on the laser line may be set as the region of interest.

여기서 상기 특징정보 생성단계는, 상기 관심영역에 소벨 마스크(sobel mask)를 적용하여 상기 관심영역 내에 포함된 에지(edge)를 추출하고, 상기 추출된 에지를 이용하여 상기 에지 프로파일을 생성할 수 있다. In the feature information generation step, a Sobel mask may be applied to the region of interest to extract an edge included in the region of interest, and the edge profile may be generated using the extracted edge. .

여기서 상기 깊이정보는, 상기 레이저 센서의 측정각도 범위를, 기준각도 간격으로 균등하게 분할하는 각각의 측정포인트까지의 거리 측정값을 포함할 수 있다. Here, the depth information may include a distance measurement value to each measurement point that equally divides the measurement angle range of the laser sensor into reference angle intervals.

여기서 상기 특징정보 생성단계는, 상기 에지 프로파일 중에서, 상기 측정포인트에 대응하는 좌표에 상기 깊이 정보를 추가하여 상기 특징정보를 생성할 수 있다. Here, in the feature information generating step, the feature information may be generated by adding the depth information to coordinates corresponding to the measurement point in the edge profile.

여기서 상기 부분 특징정보는, 상기 레이저 센서의 측정각도 범위 중에서, 기 설정된 제한각도 범위 내에 포함되는 측정포인트들의 특징정보만을 포함할 수 있다. Here, the partial feature information may include only feature information of measurement points included in a preset limit angle range among the measurement angle ranges of the laser sensor.

여기서 상기 위치추정단계는, 상기 복수의 특징정보를 이용하여, 상기 관심영역에 대한 포인트 클라우드(point cloud) 모델을 생성할 수 있다. In the location estimating step, a point cloud model for the region of interest may be generated using the plurality of feature information.

여기서 상기 위치추정단계는, 상기 t 시점의 포인트 클라우드 모델 내에 포함된 상기 t-1 시점의 부분 특징정보에 대응하는 타겟 영역을 추출하고, 상기 t-1 시점의 타겟 영역과 상기 t 시점에서의 타겟 영역의 위치를 비교하여, 상기 이동 로봇의 포즈 및 위치를 추정할 수 있다. Here, in the position estimation step, a target area corresponding to the partial feature information at time t-1 included in the point cloud model at time t is extracted, and the target area at time t-1 and the target at time t A pose and location of the mobile robot may be estimated by comparing locations of regions.

여기서 상기 위치추정단계는,

Figure 112018090948610-pat00001
을 이용하여 N개의 측정포인트를 포함하는 상기 t 시점의 특징정보를 상기 포인트 클라우드 모델로 생성하고,
Figure 112018090948610-pat00002
, Q>P, ∀P, Q ∈ [1,...,N]을 이용하여 상기 t-1 시점의 부분 특징정보에 대응하는 타겟 영역을 생성하며, 이때, 상기 측정각도 범위는 첫번째 측정포인트(i=1)로부터 N번째 측정포인트(i=N) 사이의 각도이고, 상기 제한각도 범위는 상기 P번째 측정포인트(i=P)로부터 Q번째 측정포인트(i=Q) 사이의 각도이며, 상기
Figure 112018090948610-pat00003
,
Figure 112018090948610-pat00004
이고, d(i) t-1은 t-1시점에서 i번째 측정포인트의 이동거리, Φ(i) t-1은 t-1 시점에서 i번째 측정포인트의 회전각, 각 측정포인트 사이의 각도차는 A일 수 있다. Here, the location estimation step,
Figure 112018090948610-pat00001
Generating the feature information of the time point t including N measurement points into the point cloud model using
Figure 112018090948610-pat00002
, Q>P, ∀P, Q ∈ [1,...,N] to create a target area corresponding to the partial feature information at the time point t-1. At this time, the measurement angle range is the first measurement point The angle between (i = 1) and the Nth measurement point (i = N), and the limit angle range is the angle between the P th measurement point (i = P) and the Q th measurement point (i = Q), remind
Figure 112018090948610-pat00003
,
Figure 112018090948610-pat00004
, d (i) t-1 is the movement distance of the ith measurement point at time t-1, Φ (i) t-1 is the rotation angle of the ith measurement point at time t-1, and the angle between each measurement point Car can be A.

여기서 상기 위치추정단계는, 상기 이동로봇이 매 프레임마다 이동가능한 최대 이동거리 및 최대 회전각에 따라, 상기 부분 특징정보의 제한각도 범위를 설정할 수 있다. Here, in the position estimation step, a limit angle range of the partial feature information may be set according to a maximum movement distance and a maximum rotation angle that the mobile robot can move in each frame.

여기서 상기 위치추정단계는,

Figure 112018090948610-pat00005
에서, 상기 Eestimate가 최소값이 되는 이동거리 d 및 회전각 Φ를 추출하고, 상기 추출된 이동거리 d 및 회전각 Φ를 상기 최대이동거리 및 최대회전각으로 설정할 수 있다. Here, the location estimation step,
Figure 112018090948610-pat00005
In , a movement distance d and rotation angle Φ at which the E estimate is a minimum value may be extracted, and the extracted movement distance d and rotation angle Φ may be set as the maximum movement distance and maximum rotation angle.

본 발명의 일 실시예에 의하면, 하드웨어와 결합되어 상술한 이동 로봇의 위치 인식 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램이 존재할 수 있다. According to an embodiment of the present invention, a computer program stored in a medium may exist in order to execute the method for recognizing the location of the mobile robot in combination with hardware.

본 발명의 일 실시예에 의한 이동 로봇은, 영상 정보를 생성하는 카메라; 깊이정보를 생성하는 레이저 센서; t 시점의 영상정보 및 깊이정보를 수신하고, 수신한 영상정보 및 깊이정보를 정합(calibration)하는 정합부; 상기 영상 정보 중에서 상기 레이저 센서의 레이저 라인이 조사된 영역을 관심영역(ROI: Region of Interest)으로 설정하고, 상기 관심영역에서 추출한 에지 프로파일(edge profile)에 상기 깊이정보를 결합하여, 상기 t 시점의 특징정보를 생성하는 특징정보 생성부; 및 ICP(Iterative Closest Point) 알고리즘을 이용하여, t 시점의 특징정보와 t-1 시점의 부분 특징정보를 비교하고, 상기 비교결과를 통하여 상기 이동 로봇의 포즈(pose) 및 위치를 추정하는 위치추정부를 포함할 수 있다. A mobile robot according to an embodiment of the present invention includes a camera for generating image information; a laser sensor generating depth information; a matching unit for receiving image information and depth information at time t, and calibrating the received image information and depth information; Among the image information, the region irradiated with the laser line of the laser sensor is set as a region of interest (ROI), and the depth information is combined with an edge profile extracted from the region of interest to obtain the time point t Characteristic information generating unit for generating feature information of; and location estimation that compares feature information at time t and partial feature information at time t-1 using an Iterative Closest Point (ICP) algorithm, and estimates the pose and position of the mobile robot through the comparison result. wealth may be included.

덧붙여 상기한 과제의 해결수단은, 본 발명의 특징을 모두 열거한 것이 아니다. 본 발명의 다양한 특징과 그에 따른 장점과 효과는 아래의 구체적인 실시형태를 참조하여 보다 상세하게 이해될 수 있을 것이다.In addition, the solution to the above problem does not enumerate all the features of the present invention. Various features of the present invention and the advantages and effects thereof will be understood in more detail with reference to specific embodiments below.

본 발명의 일 실시예에 의한 이동 로봇 및 이의 위치 인식 방법에 의하면, 카메라 및 레이저 센서를 이용하여 이동 로봇의 자기 위치를 신속하게 인식하는 것이 가능하다. According to the mobile robot and its location recognition method according to an embodiment of the present invention, it is possible to quickly recognize the location of the mobile robot using a camera and a laser sensor.

본 발명의 일 실시예에 의한 이동 로봇 및 이의 위치 인식 방법에 의하면, 현재 프레임과 이전 프레임을 전체를 비교하는 대신에, 이전 프레임의 일부를 비교하여 ICP 알고리즘을 적용하므로, 이동 로봇의 위치인식을 위한 처리속도를 향상시킬 수 있다. According to the mobile robot and its location recognition method according to an embodiment of the present invention, instead of comparing the current frame and the previous frame as a whole, a part of the previous frame is compared to apply the ICP algorithm, thereby recognizing the location of the mobile robot. processing speed can be improved.

도1은 본 발명의 일 실시예에 의한 이동 로봇을 나타내는 블록도이다.
도2는 본 발명의 일 실시예에 의한 이동 로봇의 위치 인식부를 나타내는 블록도이다.
도3은 본 발명의 일 실시예에 의한 이동 로봇의 관심영역 설정을 나타내는 개략도이다.
도4는 본 발명의 일 실시예에 의한 이동 로봇의 에지 검출을 나타내는 개략도이다.
도5는 본 발명의 일 실시예에 의한 이동 로봇의 에지 프로파일 생성을 나타내는 개략도이다.
도6은 본 발명의 일 실시예에 의한 이동 로봇의 부분 특징정보 거출을 나타내는 개략도이다.
도7은 본 발명의 일 실시예에 의한 이동 로봇의 포즈 및 위치 인식을 나타내는 개략도이다.
도8은 본 발명의 일 실시예에 의한 이동 로봇의 위치 인식 방법을 나타내는 순서도이다.
1 is a block diagram showing a mobile robot according to an embodiment of the present invention.
2 is a block diagram showing a location recognition unit of a mobile robot according to an embodiment of the present invention.
3 is a schematic diagram illustrating setting a region of interest of a mobile robot according to an embodiment of the present invention.
4 is a schematic diagram showing edge detection of a mobile robot according to an embodiment of the present invention.
5 is a schematic diagram showing generation of an edge profile of a mobile robot according to an embodiment of the present invention.
6 is a schematic diagram showing extraction of partial feature information of a mobile robot according to an embodiment of the present invention.
7 is a schematic diagram illustrating pose and position recognition of a mobile robot according to an embodiment of the present invention.
8 is a flowchart illustrating a location recognition method of a mobile robot according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일한 부호를 사용한다.Hereinafter, preferred embodiments will be described in detail so that those skilled in the art can easily practice the present invention with reference to the accompanying drawings. However, in describing a preferred embodiment of the present invention in detail, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted. In addition, the same reference numerals are used throughout the drawings for parts having similar functions and actions.

덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 '연결'되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 '간접적으로 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 '포함'한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다. 또한, 명세서에 기재된 "~부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. In addition, throughout the specification, when a part is said to be 'connected' to another part, this is not only the case where it is 'directly connected', but also the case where it is 'indirectly connected' with another element in between. include In addition, 'including' a certain component means that other components may be further included, rather than excluding other components unless otherwise stated. In addition, terms such as “~unit” and “module” described in the specification refer to a unit that processes at least one function or operation, and may be implemented as hardware or software or a combination of hardware and software.

도1은 본 발명의 일 실시예에 의한 이동 로봇을 나타내는 블록도이다. 1 is a block diagram showing a mobile robot according to an embodiment of the present invention.

도1을 참조하면 본 발명의 일 실시예에 의한 이동 로봇(100)은, 카메라(110), 레이저 센서(120), 위치 인식부(130) 및 주행부(140)를 포함할 수 있다. Referring to FIG. 1 , a mobile robot 100 according to an embodiment of the present invention may include a camera 110, a laser sensor 120, a position recognition unit 130, and a traveling unit 140.

이하, 도1을 참조하여 본 발명의 일 실시예에 의한 이동 로봇을 설명한다. Hereinafter, a mobile robot according to an embodiment of the present invention will be described with reference to FIG. 1 .

카메라(110)는 이동 로봇(100)의 외부를 촬영하여 영상 정보를 생성할 수 있다. 카메라(110)는 1개 설치될 수 있으나, 실시예에 따라서는 스테레오 영상을 생성하도록 2개 이상의 카메라가 구비되는 것도 가능하다. The camera 110 may generate image information by photographing the exterior of the mobile robot 100 . One camera 110 may be installed, but depending on embodiments, two or more cameras may be provided to generate a stereo image.

레이저 센서(120)는 이동 로봇(100)의 주위에 위치하는 장애물 등의 거리를 측정하여 깊이정보를 생성할 수 있다. 실시예에 따라서는, 레이저 센서(120)가 레이저 빔을 대상체에 조사한 후, 레이저 빔이 대상체에서 반사되어 레이저 센서(120)로 돌아오는 시간을 측정하는 방식으로, 대상체까지의 거리를 측정할 수 있다. 일반적으로, 레이저 센서(120)는 이동 로봇(100)의 주위에 위치하는 장애물 등을 감지하는 등의 기능을 수행하지만, 여기서는 영상 정보와 결합하여 이동 로봇(100)의 위치, 포즈 등을 인식하는데 활용될 수 있다. 레이저 센서(120)가 조사하는 레이저 빔은 점이나 선 형상을 가질 수 있으며, 여기서 선 형상의 레이저 빔을 레이저 라인이라 한다.The laser sensor 120 may generate depth information by measuring a distance of an obstacle or the like located around the mobile robot 100 . Depending on the embodiment, the distance to the object may be measured by measuring the time required for the laser beam to be reflected from the object and return to the laser sensor 120 after the laser sensor 120 radiates the laser beam to the object. there is. In general, the laser sensor 120 performs functions such as detecting obstacles located around the mobile robot 100, but here, it recognizes the position, pose, etc. of the mobile robot 100 by combining with image information. can be utilized A laser beam irradiated by the laser sensor 120 may have a dot or line shape, and here, a line-shaped laser beam is referred to as a laser line.

한편, 레이저 센서(120)는 이동 로봇(100) 전방의 설정된 측정각도 범위 내에서 깊이 정보를 측정할 수 있으며, 측정 각도 범위 내에는 측정각도 범위를 일정한 기준각도 간격으로 균등하게 분할하는 측정포인트들이 설정되어 있을 수 있다. 즉, 레이저 센서(120)는 측정각도 범위 내에 포함된 복수의 측정포인트들에 대하여 깊이정보를 생성할 수 있다. 예를들어, 레이저 센서(120)는 이동 로봇(100)의 전방 100도의 범위를 측정각도 범위로 가질 수 있으며, 측정각도 범위를 0.25도의 기준각도 간격으로 균등하게 분할하는 400개의 측정포인트들이 설정되어 있을 수 있다. 이 경우, 레이저 센서(120)는 전방 100도의 범위 내에 400개의 측정포인트들에 대한 거리를 측정하여 깊이정보로 제공할 수 있다. 여기서, 레이저 센서(120)의 측정각도 범위와 기준각도 간격은 레이저 센서(120)의 종류 등에 따라 다양하게 설정될 수 있다. Meanwhile, the laser sensor 120 can measure depth information within a set measurement angle range in front of the mobile robot 100, and within the measurement angle range, measurement points that equally divide the measurement angle range at regular reference angle intervals are provided. may be set. That is, the laser sensor 120 may generate depth information for a plurality of measurement points included in the measurement angle range. For example, the laser sensor 120 may have a range of 100 degrees in front of the mobile robot 100 as a measurement angle range, and 400 measurement points are set to equally divide the measurement angle range into reference angle intervals of 0.25 degrees. There may be. In this case, the laser sensor 120 may measure distances of 400 measurement points within a range of 100 degrees forward and provide the depth information. Here, the measurement angle range and the reference angle interval of the laser sensor 120 may be set in various ways according to the type of the laser sensor 120 and the like.

위치 인식부(130)는, 카메라(110) 및 레이저 센서(120)로부터 수신하는 영상정보와 깊이정보를 이용하여, 이동 로봇(100)의 위치 및 포즈(pose)를 추정할 수 있다. 이동 로봇(100)의 주행경로를 설정하거나 이동 로봇(100)을 실제 주행하기 위해서는, 현재 이동 로봇(100)의 위치와 포즈를 파악할 필요가 있다. 이를 위하여, 위치 인식부(130)는 카메라(110) 및 레이저 센서(120)를 이용하여 이동 로봇(100)의 주변환경을 인식할 수 있으며, 인식한 주변환경으로부터 이동 로봇(100)의 포즈와 위치를 갱신할 수 있다(SLAM: Simultaneous Localization and Mapping). The position recognition unit 130 may estimate the position and pose of the mobile robot 100 using image information and depth information received from the camera 110 and the laser sensor 120 . In order to set a driving path of the mobile robot 100 or to actually drive the mobile robot 100, it is necessary to grasp the current position and pose of the mobile robot 100. To this end, the position recognition unit 130 may recognize the surrounding environment of the mobile robot 100 using the camera 110 and the laser sensor 120, and the pose and position of the mobile robot 100 from the recognized surrounding environment. Location can be updated (SLAM: Simultaneous Localization and Mapping).

구체적으로, 도2에 도시한 바와 같이, 위치 인식부(130)는 정합부(131), 특징정보 생성부(132) 및 위치추정부(133)를 포함할 수 있다. Specifically, as shown in FIG. 2 , the location recognizing unit 130 may include a matching unit 131, a feature information generating unit 132, and a location estimating unit 133.

정합부(131)는 카메라(110) 및 레이저 센서(120)로부터 영상정보 및 깊이정보를 각각 수신할 수 있으며, 수신한 영상정보와 깊이정보를 정합(calibration)할 수 있다. 카메라(110)와 레이저 센서(120)는 이동 로봇(100) 내의 설치 위치가 상이하므로, 각각의 좌표계가 서로 다르게 설정될 수 있다. 즉, 영상정보와 깊이정보 내에 동일한 위치가 상이한 좌표로 표시될 수 있다. 따라서, 정합부(130)는 카메라(110)와 레이저 센서(120)의 설치위치에 따라 좌표변환을 수행할 수 있으며, 카메라(110)와 레이저 센서(120)에서 생성한 각각의 영상정보와 깊이정보의 좌표가 일치하도록 정합좌표를 설정할 수 있다. The matching unit 131 may receive image information and depth information from the camera 110 and the laser sensor 120, respectively, and may calibrate the received image information and depth information. Since the camera 110 and the laser sensor 120 have different installation positions within the mobile robot 100, their respective coordinate systems may be set differently. That is, the same position in the image information and the depth information may be displayed as different coordinates. Therefore, the matching unit 130 may perform coordinate conversion according to the installation positions of the camera 110 and the laser sensor 120, and each image information and depth generated by the camera 110 and the laser sensor 120 Matching coordinates can be set so that the coordinates of the information match.

특징정보생성부(132)는 영상정보 내에 관심영역(ROI: Region of Interest)을 설정할 수 있으며, 관심영역에서 추출한 에지 프로파일(edge profile)에 깊이정보를 결합하여 특징정보를 생성할 수 있다. The feature information generator 132 may set a region of interest (ROI) within the image information, and generate feature information by combining depth information with an edge profile extracted from the region of interest.

먼저, 특징정보생성부(132)는 영상 정보 중에서 레이저 센서(120)의 레이저 라인이 조사된 영역을 관심영역으로 설정할 수 있다. 즉, 특징정보생성부(132)는 영상 정보의 관심영역을 레이저 라인이 조사된 영역으로 한정하므로, 이후 영상 정보에 대한 영상처리(image processing) 등의 과정에서 필요한 연산량을 감소시킬 수 있다. 여기서, 정합부(110)에 의해 영상정보와 깊이정보의 좌표가 정합되어 있으므로, 정합좌표를 이용하면 레이저 센서(120)가 레이저 라인을 조사한 영역에 대응하는 영상정보의 좌표를 용이하게 추출할 수 있다. 이후, 도3에 도시한 바와 같이, 영상정보 내의 레이저 라인을 기준으로 설정간격 이격된 범위에 대하여 관심영역(a)으로 설정할 수 있다.First, the feature information generating unit 132 may set a region irradiated with a laser line of the laser sensor 120 as a region of interest among image information. That is, since the feature information generating unit 132 limits the region of interest of the image information to the region irradiated with the laser line, the amount of computation required in a process such as image processing of the image information can be reduced. Here, since the coordinates of the image information and the depth information are matched by the matching unit 110, the laser sensor 120 can easily extract the coordinates of the image information corresponding to the area irradiated with the laser line by using the matching coordinates. there is. After that, as shown in FIG. 3, a region of interest (a) can be set for a range spaced apart by a set interval based on the laser line in the image information.

한편, 특징정보생성부(132)는 영상정보의 관심영역으로부터 에지 프로파일(edge profile)에 추출할 수 있으며, 에지 프로파일에 깊이정보를 결합하는 방식으로, 관심영역에 대응하는 특징정보를 생성할 수 있다. Meanwhile, the feature information generator 132 may extract an edge profile from the region of interest of the image information, and generate feature information corresponding to the region of interest by combining depth information with the edge profile. there is.

구체적으로, 특징정보생성부(132)는 관심영역에 소벨 마스크(sobel mask)를 적용하여 관심영역 내에 포함된 에지(edge)들을 추출할 수 있으며, 추출된 에지를 이용하여 에지 프로파일을 생성할 수 있다. 실시예에 따라서는, 도4(a)에 도시한 바와 같이 소벨 마스크를 형성할 수 있으며, 소벨 마스크를 이용하여 관심영역(a)에 포함된 픽셀들의 픽셀값을 x 축 방향으로 미분할 수 있다. 수직 방향으로 형성된 에지(edge)가 존재하는 경우에는, x축 방향의 픽셀값들이 급격하게 변화하므로, 미분값이 높게 나타날 수 있다. 따라서, 관심영역을 x축 방향으로 미분하여, 관심영역(a) 내에 포함된 수직 성분의 에지를 포함하는 에지 영상을 생성할 수 있다. 실시예에 따라서는, 관심영역에 임계값을 설정하여 이진영상을 생성한 후, 이진영상에 대하여 소벨 마스크를 적용하여 에지 영상을 추출하는 것도 가능하다. Specifically, the feature information generating unit 132 may apply a Sobel mask to the region of interest to extract edges included in the region of interest, and generate an edge profile using the extracted edges. there is. Depending on the embodiment, a Sobel mask may be formed as shown in FIG. 4(a), and pixel values of pixels included in the region of interest (a) may be differentiated in the x-axis direction using the Sobel mask. . When there is an edge formed in the vertical direction, since pixel values in the x-axis direction change rapidly, a differential value may appear high. Accordingly, an edge image including an edge of a vertical component included in the ROI (a) may be generated by differentiating the ROI in the x-axis direction. Depending on embodiments, it is also possible to generate a binary image by setting a threshold in the region of interest, and then extract an edge image by applying a Sobel mask to the binary image.

이후, 관심영역의 에지 영상을 그레이스케일(gray scale)로 변환한 후, 도5에 도시한 바와 같이, 8개 방향에 대한 이웃 픽셀들을 검사할 수 있으며, 에지 성분이 강하게 나타나는 방향에 빈(bin)을 할당하여 히스토그램을 생성할 수 있다. 이 경우, 생성된 히스토그램에 포함된 빈(bin)의 개수를 이용하여 에지 프로파일을 추출할 수 있다. Then, after converting the edge image of the region of interest to gray scale, as shown in FIG. ) to create a histogram. In this case, an edge profile may be extracted using the number of bins included in the generated histogram.

에지 프로파일을 추출하면, 특징정보생성부(132)는 에지 프로파일 중에서 측정 포인트에 대응하는 좌표에 깊이정보를 추가하여 특징정보를 생성할 수 있다. 즉, 도5(b)에 도시한 바와 같이, 특징정보를 표시할 수 있다. 이를 통하여, 이동 로봇(100)은 주행 중에 획득하는 영상정보로부터 고속으로 장애물을 감지할 수 있다. 또한, 주행경로 상의 가변 장애물에 대하여, 특징정보를 신속하게 생성할 수 있으므로, 특징정보를 바탕으로 주변 맵을 신속하게 업데이트할 수 있다. When the edge profile is extracted, the feature information generating unit 132 may generate feature information by adding depth information to coordinates corresponding to the measurement point in the edge profile. That is, as shown in FIG. 5(b), feature information can be displayed. Through this, the mobile robot 100 can detect obstacles at high speed from image information obtained while driving. In addition, since feature information can be quickly generated for variable obstacles on the driving path, the surrounding map can be quickly updated based on the feature information.

위치추정부(133)는, ICP(Iterative Closest Point) 알고리즘을 이용하여, t 시점의 특징정보와 t-1 시점의 부분 특징정보를 비교할 수 있으며, 비교결과를 통하여 이동 로봇(100)의 포즈(pose) 및 위치를 추정할 수 있다. 즉, t 시점에서의 이동 로봇(100) 주위의 특징정보와 t-1 시점에서의 이동 로봇(100) 주위의 특징정보를 비교하여, t 시점에서의 이동 로봇(100)의 이동거리와 회전각도 등을 파악할 수 있으며, 이를 통하여 이동 로봇(100)의 포즈 및 위치를 추정할 수 있다. 다만, 여기서 t-1 시점에서의 특징정보 전부를 이용하여 포즈 및 위치를 추정하는 것도 가능하지만, 이 경우 연산량이 증가하는 등의 문제가 발생할 수 있다. The position estimation unit 133 may compare feature information at time t and partial feature information at time t-1 using an Iterative Closest Point (ICP) algorithm, and through the comparison result, the pose of the mobile robot 100 ( pose) and position can be estimated. That is, by comparing the feature information around the mobile robot 100 at time t with the feature information around the mobile robot 100 at time t-1, the movement distance and rotation angle of the mobile robot 100 at time t etc. can be grasped, and through this, the pose and position of the mobile robot 100 can be estimated. However, although it is possible to estimate the pose and position using all feature information at the time point t-1, in this case, problems such as an increase in the amount of calculation may occur.

이를 해결하기 위하여, 위치추정부(133)는 t-1 시점에서의 전체 특징정보 대신에, t-1 시점에서의 부분 특징정보를 이용할 수 있다. 여기서, 부분 특징정보는 레이저 센서(120)의 측정각도 범위 중에서, 기 설정된 제한각도 범위 내에 포함되는 측정포인트들의 특징정보만을 포함하는 것에 해당한다. 즉, 도6(a)에 도시한 바와 같이, 레이저 센서(120)의 측정각도 범위가 100도인 경우에, 50도의 제한각도 범위 내에 포함되는 특징정보만을 포함하는 부분 특징정보를 생성할 수 있으며, 이때 부분 특징정보는 도6(b)에 도시된 영역에 해당한다. To solve this problem, the location estimation unit 133 may use partial feature information at time t-1 instead of all feature information at time t-1. Here, the partial feature information corresponds to including only feature information of measurement points included in a preset limit angle range among the measurement angle ranges of the laser sensor 120 . That is, as shown in FIG. 6 (a), when the measurement angle range of the laser sensor 120 is 100 degrees, partial feature information including only feature information included in the limit angle range of 50 degrees can be generated, At this time, the partial feature information corresponds to the area shown in FIG. 6(b).

한편, 위치추정부(133)는 이동 로봇(100)의 포즈 및 위치 추정시, 포인트 클라우드(point cloud) 모델을 활용할 수 있다. 포인트 클라우드 모델은 복수의 특징정보를 공간 상에 표시하는 것으로서, 도6 및 도7과 같이 나타낼 수 있다. 포인트 클라우드 모델은 3차원의 공간상에 표시할 수 있으나, 도6 및 도7에 도시한 바와 같이, 2차원의 공간상에 표시하는 것도 가능하다. Meanwhile, the location estimator 133 may utilize a point cloud model when estimating the pose and location of the mobile robot 100 . The point cloud model displays a plurality of feature information on a space and can be represented as shown in FIGS. 6 and 7 . The point cloud model can be displayed on a three-dimensional space, but can also be displayed on a two-dimensional space, as shown in FIGS. 6 and 7 .

구체적으로, 위치추정부(133)는 ICP(Iterative Closest Point) 알고리즘을 이용하여, t 시점의 포인트 클라우드 모델로부터, t-1 시점의 부분 특징정보에 대응하는 타겟 영역을 추출할 수 있다. 이후, 추출된 타겟 영역의 t-1 시점에서의 위치와 t 시점에서의 위치를 비교하여, 이동 로봇(100)의 포즈 및 위치를 추정할 수 있다. Specifically, the location estimation unit 133 may extract a target area corresponding to partial feature information at time t-1 from a point cloud model at time t using an iterative closest point (ICP) algorithm. Thereafter, the pose and position of the mobile robot 100 may be estimated by comparing the location of the extracted target region at time t-1 with the location at time t.

실시예에 따라서는, t 시점의 포인트 클라우드 모델을

Figure 112018090948610-pat00006
로 표현할 수 있으며, t-1 시점의 부분 특징정보에 대응하는 타겟 영역은
Figure 112018090948610-pat00007
으로 표현할 수 있다. 여기서, Q>P, ∀P, Q ∈ [1,...,N]를 만족할 수 있다. Depending on the embodiment, the point cloud model at time t
Figure 112018090948610-pat00006
It can be expressed as, and the target area corresponding to the partial feature information at time t-1 is
Figure 112018090948610-pat00007
can be expressed as Here, Q>P, ∀P, Q ∈ [1,...,N] can be satisfied.

이 경우, 측정각도 범위는 첫번째 측정포인트(i=1)로부터 N번째 측정포인트(i=N) 사이의 각도이고, 제한각도 범위는 상기 P번째 측정포인트(i=P)로부터 Q번째 측정포인트(i=Q) 사이의 각도에 해당한다. 예를들어, 측정각도 범위를 이동 로봇(100)의 전방 100도, 제한각도 범위를 이동 로봇의 전방 50도로 하는 경우에는, N=400, P=100, Q=300으로 설정할 수 있다. In this case, the measurement angle range is the angle between the first measurement point (i=1) and the N-th measurement point (i=N), and the limit angle range is the P-th measurement point (i=P) to the Q-th measurement point ( It corresponds to the angle between i=Q). For example, when the measurement angle range is 100 degrees in front of the mobile robot 100 and the limit angle range is 50 degrees in front of the mobile robot, N = 400, P = 100, and Q = 300 can be set.

여기서,

Figure 112018090948610-pat00008
,
Figure 112018090948610-pat00009
일 수 있으며, d(i) t-1은 t-1시점에서 i번째 측정포인트의 이동거리, Φ(i) t-1은 t-1 시점에서 i번째 측정포인트의 회전각에 해당한다. A는 각각의 측정포인트 사이의 각도차로, 측정포인트의 개수가 400개이고, 측정각도가 이동로봇(100)의 전방 100도인 경우에는 0.25도로 설정할 수 있다. here,
Figure 112018090948610-pat00008
,
Figure 112018090948610-pat00009
, d (i) t-1 corresponds to the movement distance of the ith measurement point at time t-1, and Φ (i) t-1 corresponds to the rotation angle of the ith measurement point at time t-1. A is the angle difference between each measurement point, and can be set to 0.25 degrees when the number of measurement points is 400 and the measurement angle is 100 degrees in front of the mobile robot 100.

따라서, 위치추정부(133)는, 도7에 도시한 바와 같이, 도7(a)의 t-1 시점의 타겟 영역을, 도7(b)의 t 시점의 포인트 클라우드 모델 내에서 검색할 수 있다. 여기서, ICP 알고리즘은 반복 수행을 통하여 타겟 영역을 검색하는 것으로서, 위치추정부(133)는 부분 특징정보를 이용하므로 ICP 알고리즘의 연산속도를 향상시킬 수 있다. Therefore, as shown in FIG. 7, the location estimation unit 133 can search the target area at time t-1 in FIG. 7 (a) within the point cloud model at time t in FIG. 7 (b). there is. Here, the ICP algorithm searches for a target area through repeated execution, and since the location estimation unit 133 uses partial feature information, the operation speed of the ICP algorithm can be improved.

또한, 위치추정부(133)는 이동로봇(100)이 매 프레임마다 이동가능한 최대 이동거리 및 최대 회전각에 따라, 부분 특징정보의 제한각도 범위를 미리 설정하여, ICP 알고리즘의 반복 수행 횟수를 줄일 수 있다. 즉, t 시점의 포인트 클라우드 모델 내에 타겟 영역이 반드시 포함되도록 설계할 수 있다. In addition, the position estimator 133 reduces the number of iterations of the ICP algorithm by presetting the limiting angle range of the partial feature information according to the maximum movement distance and maximum rotation angle that the mobile robot 100 can move in each frame. can That is, the target area can be designed to be necessarily included in the point cloud model at time t.

구체적으로,

Figure 112018090948610-pat00010
에서, Eestimate가 최소값이 되는 이동거리 d 및 회전각 Φ를 추출할 수 있으며, 추출된 이동거리 d 및 회전각 Φ를 이동로봇(100)의 최대이동거리 및 최대회전각으로 설정할 수 있다. Specifically,
Figure 112018090948610-pat00010
In , the movement distance d and rotation angle Φ at which E estimate is the minimum value can be extracted, and the extracted movement distance d and rotation angle Φ can be set as the maximum movement distance and maximum rotation angle of the mobile robot 100 .

주행부(140)는 이동 로봇(100)의 포즈 및 위치에 따라 주행경로를 설정하고, 주행경로에 따라 이동하도록 이동 로봇(100)을 구동시킬 수 있다. 주행부(140)는 이동 로봇(100)의 주행을 위한 모터나 엔진, 스티어링 등을 제어할 수 있다. 여기서, 주행부(140)는 이동 로봇(100)의 포즈 및 위치와, 주변의 장애물 등에 따라, 직접 주행 경로를 설정하여 자율 주행할 수 있으며, 실시예에 따라서는 사용자의 입력에 따라 이동 로봇(100)이 이동하도록 제어하는 것도 가능하다. The driving unit 140 may set a driving route according to the pose and position of the mobile robot 100 and drive the mobile robot 100 to move according to the driving route. The driving unit 140 may control a motor, an engine, or steering for driving the mobile robot 100 . Here, the driving unit 140 may directly set a driving path according to the pose and position of the mobile robot 100 and surrounding obstacles for autonomous driving, and according to an embodiment, the mobile robot ( 100) can also be controlled to move.

구체적으로, 주행부(140)는 위치 인식부(130)에서 인식한 주변환경을 이용하여 확률기반의 주변맵을 생성할 수 있으며, 생성한 주변맵 상에서 이동하도록 주행 경로를 설정할 수 있다. 이때, 주행부(140)는 텐젠트 버그(tangent bug) 알고리즘을 활용하여 자율주행할 수 있다. Specifically, the driving unit 140 may generate a probability-based surrounding map using the surrounding environment recognized by the location recognition unit 130, and may set a driving route to move on the generated surrounding map. At this time, the driving unit 140 may autonomously drive by utilizing a tangent bug algorithm.

도8은 본 발명의 일 실시예에 의한 이동 로봇의 위치 인식 방법을 나타내는 순서도이다. 8 is a flowchart illustrating a location recognition method of a mobile robot according to an embodiment of the present invention.

도8을 참조하면 본 발명의 일 실시예에 의한 이동 로봇의 위치 인식 방법은 정합단계(S10), 특징정보 생성단계(S20) 및 위치추정단계(S30)를 포함할 수 있다. Referring to FIG. 8 , the location recognition method of a mobile robot according to an embodiment of the present invention may include a matching step (S10), feature information generation step (S20), and location estimation step (S30).

이하, 도8을 참조하여 본 발명의 일 실시예에 의한 이동 로봇의 위치 인식 방법을 설명한다. Hereinafter, a location recognition method of a mobile robot according to an embodiment of the present invention will be described with reference to FIG. 8 .

정합단계(S10)에서는, 카메라 및 레이저 센서로부터 t 시점의 영상정보 및 깊이정보를 각각 수신할 수 있으며, 수신한 영상정보 및 깊이정보를 정합(calibration)할 수 있다. 카메라와 레이저 센서는 이동 로봇 내의 설치 위치가 상이하므로, 각각의 좌표계가 서로 다르게 설정될 수 있다. 따라서, 정합단계(S10)를 통하여, 카메라와 레이저 센서의 설치위치에 따라 좌표변환을 수행할 수 있으며, 카메라와 레이저 센서에서 생성한 각각의 영상정보와 깊이정보의 좌표가 일치하도록 정합좌표를 설정할 수 있다. In the matching step ( S10 ), image information and depth information of time t may be received from the camera and the laser sensor, respectively, and the received image information and depth information may be calibrated. Since the cameras and laser sensors have different installation positions in the mobile robot, their respective coordinate systems may be set differently. Therefore, through the matching step (S10), coordinate conversion can be performed according to the installation positions of the camera and laser sensor, and matching coordinates can be set so that the coordinates of each image information and depth information generated by the camera and laser sensor coincide. can

특징정보 생성단계(S20)에서는, 먼저 영상정보 중에서 레이저 센서의 레이저 라인이 조사되는 영역을 관심영역(ROI: Region of Interest)으로 설정할 수 있다. 여기서, 정합단계(S10)에 의해 영상정보와 깊이정보의 좌표가 정합되어 있으므로, 정합좌표를 이용하면 레이저 센서가 레이저 라인을 조사한 영역에 대응하는 영상정보의 좌표를 용이하게 추출할 수 있다. 이 경우, 영상정보 내의 레이저 라인을 기준으로 설정간격 이격된 범위에 대하여 관심영역으로 설정할 수 있다.In the feature information generating step (S20), first, a region of the image information to which the laser line of the laser sensor is irradiated may be set as a region of interest (ROI). Here, since the coordinates of the image information and the depth information are matched by the matching step (S10), the laser sensor can easily extract the coordinates of the image information corresponding to the area irradiated with the laser line by using the matching coordinates. In this case, a range separated by a set interval based on the laser line in the image information can be set as the region of interest.

이후, 관심영역에서 추출한 에지 프로파일(edge profile)에 깊이정보를 결합하여, t 시점의 특징정보를 생성할 수 있다. 구체적으로, 관심영역에 소벨 마스크(sobel mask)를 적용하여 관심영역 내에 포함된 에지(edge)들을 추출할 수 있으며, 추출된 에지를 이용하여 에지 프로파일을 생성할 수 있다. 실시예에 따라서는, 소벨 마스크를 이용하여 관심영역에 포함된 픽셀들의 픽셀값을 x 축 방향으로 미분할 수 있다. 수직 방향으로 형성된 에지(edge)가 존재하는 경우에는, x축 방향의 픽셀값들이 급격하게 변화하므로, 미분값이 높게 나타날 수 있다. 따라서, 관심영역을 x축 방향으로 미분하여, 관심영역 내에 포함된 수직 성분의 에지를 포함하는 에지 영상을 생성할 수 있다. Thereafter, feature information at time t may be generated by combining depth information with an edge profile extracted from the region of interest. Specifically, edges included in the ROI may be extracted by applying a Sobel mask to the ROI, and an edge profile may be generated using the extracted edges. Depending on embodiments, pixel values of pixels included in the region of interest may be differentiated in the x-axis direction by using the Sobel mask. When there is an edge formed in the vertical direction, since pixel values in the x-axis direction change rapidly, a differential value may appear high. Accordingly, an edge image including an edge of a vertical component included in the ROI may be generated by differentiating the ROI in the x-axis direction.

이후, 관심영역의 에지 영상을 그레이스케일(gray scale)로 변환한 후, 8개 방향에 대한 이웃 픽셀들을 검사할 수 있으며, 에지 성분이 강하게 나타나는 방향에 빈(bin)을 할당하여 히스토그램을 생성할 수 있다. 이 경우, 생성된 히스토그램에 포함된 빈(bin)의 개수를 이용하여 에지 프로파일을 추출할 수 있다. Then, after converting the edge image of the region of interest to gray scale, neighboring pixels in eight directions can be inspected, and a histogram can be created by assigning bins to directions in which edge components appear strongly. can In this case, an edge profile may be extracted using the number of bins included in the generated histogram.

에지 프로파일을 추출하면, 에지 프로파일 중에서 측정 포인트에 대응하는 좌표에 깊이정보를 추가하여 특징정보를 생성할 수 있다. When the edge profile is extracted, feature information may be generated by adding depth information to coordinates corresponding to measurement points among the edge profiles.

위치추정단계(S30)에서는, ICP(Iterative Closest Point) 알고리즘을 이용하여, t 시점의 특징정보와 t-1 시점의 부분 특징정보를 비교할 수 있다. 여기서, 비교결과를 통하여 이동 로봇의 포즈(pose) 및 위치를 추정하는 것이 가능하다. 즉, t 시점에서의 이동 로봇 주위의 특징정보와 t-1 시점에서의 이동 로봇 주위의 특징정보를 비교하여, t 시점에서의 이동 로봇의 이동거리와 회전각도 등을 파악할 수 있으며, 이를 통하여 이동 로봇의 포즈 및 위치를 추정할 수 있다. 다만, 여기서 t-1 시점에서의 특징정보 전부를 이용하여 포즈 및 위치를 추정하는 것도 가능하지만, 이 경우 연산량이 증가하는 등의 문제가 발생할 수 있다. In the location estimation step (S30), feature information at time t and partial feature information at time t-1 may be compared using an iterative closest point (ICP) algorithm. Here, it is possible to estimate the pose and position of the mobile robot through the comparison result. That is, by comparing the feature information around the mobile robot at time t with the feature information around the mobile robot at time t-1, the movement distance and rotation angle of the mobile robot at time t can be grasped. The pose and position of the robot can be estimated. However, although it is possible to estimate the pose and position using all feature information at the time point t-1, in this case, problems such as an increase in the amount of calculation may occur.

이를 해결하기 위하여, 위치추정단계(S30)에서는 t-1 시점에서의 전체 특징정보 대신에, t-1 시점에서의 부분 특징정보를 이용할 수 있다. 여기서, 부분 특징정보는 레이저 센서의 측정각도 범위 중에서, 기 설정된 제한각도 범위 내에 포함되는 측정포인트들의 특징정보만을 포함하는 것에 해당한다. To solve this problem, in the location estimation step (S30), partial feature information at time t-1 may be used instead of the entire feature information at time t-1. Here, the partial feature information corresponds to including only feature information of measurement points included in a preset limited angle range among the measurement angle range of the laser sensor.

한편, 위치추정단계(S30)에서는 이동 로봇의 포즈 및 위치 추정시, 포인트 클라우드(point cloud) 모델을 활용할 수 있다. 포인트 클라우드 모델은 복수의 특징정보를 공간 상에 표시하는 것으로서, 3차원의 공간상에 표시할 수 있으나, 실시예에 따라서는 2차원의 공간상에 표시하는 것도 가능하다. Meanwhile, in the position estimation step (S30), a point cloud model may be used when estimating the pose and position of the mobile robot. A point cloud model displays a plurality of feature information on a space, and can be displayed on a 3-dimensional space, but can also be displayed on a 2-dimensional space depending on embodiments.

구체적으로, 위치추정단계(S30)에서는 ICP(Iterative Closest Point) 알고리즘을 이용하여, t 시점의 포인트 클라우드 모델로부터, t-1 시점의 부분 특징정보에 대응하는 타겟 영역을 추출할 수 있다. 이후, 추출된 타겟 영역의 t-1 시점에서의 위치와 t 시점에서의 위치를 비교하여, 이동 로봇의 포즈 및 위치를 추정할 수 있다. Specifically, in the position estimation step (S30), a target area corresponding to partial feature information at time t-1 may be extracted from a point cloud model at time t using an iterative closest point (ICP) algorithm. Thereafter, the pose and position of the mobile robot may be estimated by comparing the location of the extracted target region at time t-1 with the location at time t.

실시예에 따라서는, t 시점의 포인트 클라우드 모델을

Figure 112018090948610-pat00011
로 표현할 수 있으며, t-1 시점의 부분 특징정보에 대응하는 타겟 영역은
Figure 112018090948610-pat00012
으로 표현할 수 있다. 여기서, Q>P, ∀P, Q ∈ [1,...,N]를 만족할 수 있다. Depending on the embodiment, the point cloud model at time t
Figure 112018090948610-pat00011
It can be expressed as, and the target area corresponding to the partial feature information at time t-1 is
Figure 112018090948610-pat00012
can be expressed as Here, Q>P, ∀P, Q ∈ [1,...,N] can be satisfied.

이 경우, 측정각도 범위는 첫번째 측정포인트(i=1)로부터 N번째 측정포인트(i=N) 사이의 각도이고, 제한각도 범위는 상기 P번째 측정포인트(i=P)로부터 Q번째 측정포인트(i=Q) 사이의 각도에 해당한다. 예를들어, 측정각도 범위를 이동 로봇(100)의 전방 100도, 제한각도 범위를 이동 로봇의 전방 50도로 하는 경우에는, N=400, P=100, Q=300으로 설정할 수 있다. In this case, the measurement angle range is the angle between the first measurement point (i=1) and the N-th measurement point (i=N), and the limit angle range is the P-th measurement point (i=P) to the Q-th measurement point ( It corresponds to the angle between i=Q). For example, when the measurement angle range is 100 degrees in front of the mobile robot 100 and the limit angle range is 50 degrees in front of the mobile robot, N = 400, P = 100, and Q = 300 can be set.

여기서,

Figure 112018090948610-pat00013
,
Figure 112018090948610-pat00014
일 수 있으며, d(i) t-1은 t-1시점에서 i번째 측정포인트의 이동거리, Φ(i) t-1은 t-1 시점에서 i번째 측정포인트의 회전각에 해당한다. A는 각각의 측정포인트 사이의 각도차로, 측정포인트의 개수가 400개이고, 측정각도가 이동로봇(100)의 전방 100도인 경우에는 0.25도로 설정할 수 있다. here,
Figure 112018090948610-pat00013
,
Figure 112018090948610-pat00014
, d (i) t-1 corresponds to the movement distance of the ith measurement point at time t-1, and Φ (i) t-1 corresponds to the rotation angle of the ith measurement point at time t-1. A is the angle difference between each measurement point, and can be set to 0.25 degrees when the number of measurement points is 400 and the measurement angle is 100 degrees in front of the mobile robot 100.

ICP 알고리즘은 반복 수행을 통하여 타겟 영역을 검색하는 것으로서, 부분 특징정보를 이용하여 ICP 알고리즘의 연산속도를 향상시킬 수 있다. 또한, 이동로봇이 매 프레임마다 이동가능한 최대 이동거리 및 최대 회전각에 따라, 부분 특징정보의 제한각도 범위를 미리 설정하여, ICP 알고리즘의 반복 수행 횟수를 줄일 수 있다. 즉, t 시점의 포인트 클라우드 모델 내에 타겟 영역이 반드시 포함되도록 설계할 수 있다. The ICP algorithm searches a target area through iterative execution, and the operation speed of the ICP algorithm can be improved by using partial feature information. In addition, the number of iterations of the ICP algorithm can be reduced by presetting a limit angle range of partial feature information according to the maximum movement distance and maximum rotation angle that the mobile robot can move in each frame. That is, the target area can be designed to be necessarily included in the point cloud model at time t.

구체적으로,

Figure 112018090948610-pat00015
에서, Eestimate가 최소값이 되는 이동거리 d 및 회전각 Φ를 추출할 수 있으며, 추출된 이동거리 d 및 회전각 Φ를 이동로봇의 최대이동거리 및 최대회전각으로 설정할 수 있다. Specifically,
Figure 112018090948610-pat00015
In , the movement distance d and rotation angle Φ at which E estimate is the minimum value can be extracted, and the extracted movement distance d and rotation angle Φ can be set as the maximum movement distance and maximum rotation angle of the mobile robot.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above-described present invention can be implemented as computer readable code on a medium on which a program is recorded. The computer-readable medium may continuously store programs executable by the computer or temporarily store them for execution or download. In addition, the medium may be various recording means or storage means in the form of a single or combined hardware, but is not limited to a medium directly connected to a certain computer system, and may be distributed on a network. Examples of the medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROM and DVD, magneto-optical media such as floptical disks, and ROM, RAM, flash memory, etc. configured to store program instructions. In addition, examples of other media include recording media or storage media managed by an app store that distributes applications, a site that supplies or distributes various other software, and a server. Accordingly, the above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 본 발명에 따른 구성요소를 치환, 변형 및 변경할 수 있다는 것이 명백할 것이다.The present invention is not limited by the foregoing embodiments and accompanying drawings. It will be clear to those skilled in the art that the components according to the present invention can be substituted, modified, and changed without departing from the technical spirit of the present invention.

100: 이동로봇 110: 카메라
120: 레이저 센서 130: 위치 인식부
131: 정합부 132: 특징정보 생성부
133: 위치추정부 140: 주행부
100: mobile robot 110: camera
120: laser sensor 130: position recognition unit
131: matching unit 132: feature information generating unit
133: position estimation unit 140: driving unit

Claims (14)

카메라 및 레이저 센서를 포함하는 이동 로봇의 위치 인식 방법에 있어서,
상기 카메라 및 레이저 센서로부터 t 시점의 영상정보 및 깊이정보를 각각 수신하고, 수신한 상기 영상정보 및 깊이정보를 정합(calibration)하는 정합단계;
상기 영상정보 중에서 상기 레이저 센서의 레이저 라인이 조사되는 영역을 관심영역(ROI: Region of Interest)으로 설정하고, 상기 관심영역에서 추출한 에지 프로파일(edge profile)에 상기 깊이정보를 결합하여, 상기 t 시점의 특징정보를 생성하는 특징정보 생성단계; 및
ICP(Iterative Closest Point) 알고리즘을 이용하여, t 시점의 특징정보와 t-1 시점의 부분 특징정보를 비교하고, 상기 비교결과를 통하여 상기 이동 로봇의 포즈(pose) 및 위치를 추정하는 위치추정단계를 포함하는 이동 로봇의 위치 인식 방법.
In the position recognition method of a mobile robot including a camera and a laser sensor,
a calibrating step of receiving image information and depth information at time t from the camera and laser sensor, respectively, and calibrating the received image information and depth information;
Among the image information, a region irradiated with a laser line of the laser sensor is set as a region of interest (ROI), and the depth information is combined with an edge profile extracted from the region of interest to obtain the time t Characteristic information generation step of generating feature information of; and
A position estimation step of comparing feature information at time t and partial feature information at time t-1 using an Iterative Closest Point (ICP) algorithm, and estimating the pose and position of the mobile robot through the comparison result Location recognition method of a mobile robot comprising a.
제1항에 있어서, 상기 정합단계는
상기 카메라와 레이저 센서의 설치위치에 따라 좌표변환을 수행하여, 상기 영상정보와 깊이정보의 좌표가 일치하도록 정합좌표를 설정하는 것을 특징으로 하는 이동 로봇의 위치 인식 방법.
The method of claim 1, wherein the matching step
The location recognition method of the mobile robot, characterized in that by performing coordinate conversion according to the installation positions of the camera and the laser sensor, and setting matching coordinates so that the coordinates of the image information and depth information coincide.
제2항에 있어서, 상기 특징정보 생성단계는
상기 정합좌표를 이용하여, 상기 영상정보 중에서 상기 레이저 라인이 조사된 영역을 추출하고, 상기 레이저 라인을 기준으로 설정간격 이격된 범위를 상기 관심영역으로 설정하는 것을 특징으로 하는 이동 로봇의 위치 인식 방법.
The method of claim 2, wherein the feature information generating step
A method for recognizing a location of a mobile robot, characterized in that by using the matching coordinates, extracting an area irradiated with the laser line from the image information and setting a range spaced apart by a set interval based on the laser line as the area of interest. .
제1항에 있어서, 상기 특징정보 생성단계는
상기 관심영역에 소벨 마스크(sobel mask)를 적용하여 상기 관심영역 내에 포함된 에지(edge)를 추출하고, 상기 추출된 에지를 이용하여 상기 에지 프로파일을 생성하는 것을 특징으로 하는 이동 로봇의 위치 인식 방법.
The method of claim 1, wherein the feature information generating step
A method for recognizing a position of a mobile robot, characterized in that by applying a Sobel mask to the region of interest, extracting an edge included in the region of interest, and generating the edge profile using the extracted edge. .
제1항에 있어서, 상기 깊이정보는
상기 레이저 센서의 측정각도 범위를, 기준각도 간격으로 균등하게 분할하는 각각의 측정포인트까지의 거리 측정값을 포함하는 것을 특징으로 하는 이동 로봇의 위치 인식 방법.
The method of claim 1, wherein the depth information is
The location recognition method of a mobile robot, characterized in that it includes a distance measurement value to each measurement point that equally divides the measurement angle range of the laser sensor into reference angle intervals.
제5항에 있어서, 상기 특징정보 생성단계는
상기 에지 프로파일 중에서, 상기 측정포인트에 대응하는 좌표에 상기 깊이 정보를 추가하여 상기 특징정보를 생성하는 것을 특징으로 이동 로봇의 위치 인식 방법.
The method of claim 5, wherein the feature information generating step
Wherein the feature information is generated by adding the depth information to coordinates corresponding to the measurement points among the edge profiles.
제6항에 있어서, 상기 부분 특징정보는
상기 레이저 센서의 측정각도 범위 중에서, 기 설정된 제한각도 범위 내에 포함되는 측정포인트들의 특징정보만을 포함하는 것을 특징으로 하는 이동 로봇의 위치 인식 방법.
The method of claim 6, wherein the partial feature information
A method for recognizing a location of a mobile robot, characterized in that it includes only feature information of measurement points included in a predetermined limited angle range among the range of measurement angles of the laser sensor.
제6항에 있어서, 상기 위치추정단계는
상기 복수의 특징정보를 이용하여, 상기 관심영역에 대한 포인트 클라우드(point cloud) 모델을 생성하는 것을 특징으로 하는 이동 로봇의 위치 인식 방법.
The method of claim 6, wherein the location estimation step
A method for recognizing a position of a mobile robot, characterized in that for generating a point cloud model for the region of interest using the plurality of feature information.
제8항에 있어서, 상기 위치추정단계는
상기 t 시점의 포인트 클라우드 모델 내에 포함된 상기 t-1 시점의 부분 특징정보에 대응하는 타겟 영역을 추출하고, 상기 t-1 시점의 타겟 영역과 상기 t 시점에서의 타겟 영역의 위치를 비교하여, 상기 이동 로봇의 포즈 및 위치를 추정하는 것을 특징으로 하는 이동 로봇의 위치 인식 방법.
The method of claim 8, wherein the location estimation step
Extracting a target area corresponding to the partial feature information at time t-1 included in the point cloud model at time t, and comparing the position of the target area at time t-1 with the target area at time t, Position recognition method of a mobile robot, characterized in that for estimating the pose and position of the mobile robot.
제9항에 있어서, 상기 위치추정단계는
Figure 112018090948610-pat00016
을 이용하여 N개의 측정포인트를 포함하는 상기 t 시점의 특징정보를 상기 포인트 클라우드 모델로 생성하고,
Figure 112018090948610-pat00017
, Q>P, ∀P, Q ∈ [1,...,N]을 이용하여 상기 t-1 시점의 부분 특징정보에 대응하는 타겟 영역을 생성하며,
이때, 상기 측정각도 범위는 첫번째 측정포인트(i=1)로부터 N번째 측정포인트(i=N) 사이의 각도이고, 상기 제한각도 범위는 상기 P번째 측정포인트(i=P)로부터 Q번째 측정포인트(i=Q) 사이의 각도이며,
상기
Figure 112018090948610-pat00018
,
Figure 112018090948610-pat00019
이고, d(i) t-1은 t-1시점에서 i번째 측정포인트의 이동거리, Φ(i) t-1은 t-1 시점에서 i번째 측정포인트의 회전각, 각 측정포인트 사이의 각도차는 A인 것을 특징으로 하는 이동 로봇의 위치 인식 방법.
10. The method of claim 9, wherein the location estimation step
Figure 112018090948610-pat00016
Generating the feature information of the time point t including N measurement points into the point cloud model using
Figure 112018090948610-pat00017
, Q>P, ∀P, Q ∈ [1,...,N] to generate a target area corresponding to the partial feature information at the time point t-1,
At this time, the measurement angle range is an angle between the first measurement point (i=1) and the N-th measurement point (i=N), and the limit angle range is the P-th measurement point (i=P) to the Q-th measurement point. is the angle between (i=Q),
remind
Figure 112018090948610-pat00018
,
Figure 112018090948610-pat00019
, d (i) t-1 is the movement distance of the ith measurement point at time t-1, Φ (i) t-1 is the rotation angle of the ith measurement point at time t-1, and the angle between each measurement point A method for recognizing a location of a mobile robot, characterized in that the car is A.
제7항에 있어서, 상기 위치추정단계는
상기 이동로봇이 매 프레임마다 이동가능한 최대 이동거리 및 최대 회전각에 따라, 상기 부분 특징정보의 제한각도 범위를 설정하는 것을 특징으로 하는 이동 로봇의 위치 인식 방법.
The method of claim 7, wherein the location estimation step
A method for recognizing a position of a mobile robot, characterized in that setting a limiting angle range of the partial feature information according to a maximum movement distance and a maximum rotation angle that the mobile robot can move in each frame.
제9항에 있어서, 상기 위치추정단계는
Figure 112018090948610-pat00020

에서, 상기 Eestimate가 최소값이 되는 이동거리 d 및 회전각 Φ를 추출하고, 상기 추출된 이동거리 d 및 회전각 Φ를 상기 최대이동거리 및 최대회전각으로 설정하는 것을 특징으로 하는 이동 로봇의 위치 인식 방법.
10. The method of claim 9, wherein the location estimation step
Figure 112018090948610-pat00020

In , the movement distance d and rotation angle Φ at which the E estimate is the minimum value are extracted, and the extracted movement distance d and rotation angle Φ are set as the maximum movement distance and maximum rotation angle. recognition method.
하드웨어와 결합되어 제1항 내지 제12항 중 어느 한 항의 이동 로봇의 위치 인식방법을 실행하기 위하여 기록매체에 저장된 컴퓨터 프로그램.
A computer program stored in a recording medium in combination with hardware to execute the method for recognizing the position of a mobile robot according to any one of claims 1 to 12.
영상 정보를 생성하는 카메라;
깊이정보를 생성하는 레이저 센서;
t 시점의 영상정보 및 깊이정보를 수신하고, 수신한 영상정보 및 깊이정보를 정합(calibration)하는 정합부;
상기 영상 정보 중에서 상기 레이저 센서의 레이저 라인이 조사된 영역을 관심영역(ROI: Region of Interest)으로 설정하고, 상기 관심영역에서 추출한 에지 프로파일(edge profile)에 상기 깊이정보를 결합하여, 상기 t 시점의 특징정보를 생성하는 특징정보 생성부; 및
ICP(Iterative Closest Point) 알고리즘을 이용하여, t 시점의 특징정보와 t-1 시점의 부분 특징정보를 비교하고, 상기 비교결과를 통하여 상기 이동 로봇의 포즈(pose) 및 위치를 추정하는 위치추정부를 포함하는 이동 로봇.
a camera generating image information;
a laser sensor generating depth information;
a matching unit for receiving image information and depth information at time t, and calibrating the received image information and depth information;
Among the image information, the region irradiated with the laser line of the laser sensor is set as a region of interest (ROI), and the depth information is combined with an edge profile extracted from the region of interest to obtain the time point t Characteristic information generating unit for generating feature information of; and
Using an Iterative Closest Point (ICP) algorithm, a position estimation unit that compares feature information at time t and partial feature information at time t-1 and estimates the pose and position of the mobile robot through the comparison result Including mobile robots.
KR1020180109304A 2018-09-13 2018-09-13 Moving robot and method for estiating location of moving robot KR102547274B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180109304A KR102547274B1 (en) 2018-09-13 2018-09-13 Moving robot and method for estiating location of moving robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180109304A KR102547274B1 (en) 2018-09-13 2018-09-13 Moving robot and method for estiating location of moving robot

Publications (2)

Publication Number Publication Date
KR20200030738A KR20200030738A (en) 2020-03-23
KR102547274B1 true KR102547274B1 (en) 2023-06-23

Family

ID=69998778

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180109304A KR102547274B1 (en) 2018-09-13 2018-09-13 Moving robot and method for estiating location of moving robot

Country Status (1)

Country Link
KR (1) KR102547274B1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102352088B1 (en) * 2020-03-24 2022-01-14 연세대학교 산학협력단 Mobile Robot and 3D Global Position Recognition Apparatus Using Pose Estimation Based on Deep Learning
CN115229777A (en) * 2021-04-22 2022-10-25 灵动科技(北京)有限公司 Autonomous mobile robot, logistics docking system and docking method
KR102555709B1 (en) 2022-04-19 2023-07-13 호서대학교 산학협력단 Method for control autonomous mobile robot that tracks tile grid pattern based cgaracter matrix map
KR102555707B1 (en) 2022-04-19 2023-07-14 호서대학교 산학협력단 Method for control autonomous mobile robot that tracks tile grid pattern based on character recognition
KR102555708B1 (en) 2022-04-19 2023-07-13 호서대학교 산학협력단 Method of position recognition and driving control for an autonomous mobile robot that tracks tile grid pattern
KR20230154700A (en) * 2022-05-02 2023-11-09 삼성전자주식회사 Robot and method for calculating a distance to an object

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016103269A (en) 2014-11-12 2016-06-02 村田機械株式会社 Movement amount estimation device, autonomous mobile body, and method of estimating movement amount

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140009737A (en) * 2012-07-12 2014-01-23 한국과학기술원 Hybrid map based localization method of robot
CN104487864B (en) * 2012-08-27 2017-06-23 伊莱克斯公司 robot positioning system
WO2015194866A1 (en) 2014-06-17 2015-12-23 (주)유진로봇 Device and method for recognizing location of mobile robot by means of edge-based readjustment
KR101859618B1 (en) * 2016-10-12 2018-05-18 충북대학교 산학협력단 Method and device for driving mobile robot using vanishing point in corridor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016103269A (en) 2014-11-12 2016-06-02 村田機械株式会社 Movement amount estimation device, autonomous mobile body, and method of estimating movement amount

Also Published As

Publication number Publication date
KR20200030738A (en) 2020-03-23

Similar Documents

Publication Publication Date Title
KR102547274B1 (en) Moving robot and method for estiating location of moving robot
US9274526B2 (en) Autonomous vehicle and method of estimating self position of autonomous vehicle
US9990736B2 (en) Robust anytime tracking combining 3D shape, color, and motion with annealed dynamic histograms
EP2948927B1 (en) A method of detecting structural parts of a scene
US9846812B2 (en) Image recognition system for a vehicle and corresponding method
US8649557B2 (en) Method of mobile platform detecting and tracking dynamic objects and computer-readable medium thereof
US11703334B2 (en) Mobile robots to generate reference maps for localization
KR20110097140A (en) Apparatus for estimating location of moving robot and method thereof
CN112880694B (en) Method for determining the position of a vehicle
WO2018195996A1 (en) Multi-object tracking based on lidar point cloud
CN111381594A (en) AGV space obstacle avoidance method and system based on 3D vision
US11087145B2 (en) Gradient estimation device, gradient estimation method, computer program product, and controlling system
Dieterle et al. Sensor data fusion of LIDAR with stereo RGB-D camera for object tracking
US20190114490A1 (en) Information processing device, learned model, information processing method, and computer program product
KR20180076815A (en) Method and apparatus for estimating localization of robot in wide range of indoor space using qr marker and laser scanner
Han et al. Robust ego-motion estimation and map matching technique for autonomous vehicle localization with high definition digital map
KR20200102108A (en) Apparatus for detecting object of vehicle and method thereof
US20230185317A1 (en) Information processing device, information processing system, method, and program
US20230012905A1 (en) Proximity detection for automotive vehicles and other systems based on probabilistic computing techniques
WO2022157157A1 (en) Radar perception
CN114509079A (en) Method and system for ground projection for autonomous driving
US20230252751A1 (en) Method for aligning at least two images formed by three-dimensional points
KR20160020620A (en) Apparatus and method for controling automatic termial
US20240077617A1 (en) Perception for point clouds
WO2023234384A1 (en) Map generation device, map generation method, and computer-readable recording medium

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant