KR20200080598A - 이동 로봇의 주행 평가 방법 - Google Patents

이동 로봇의 주행 평가 방법 Download PDF

Info

Publication number
KR20200080598A
KR20200080598A KR1020180170209A KR20180170209A KR20200080598A KR 20200080598 A KR20200080598 A KR 20200080598A KR 1020180170209 A KR1020180170209 A KR 1020180170209A KR 20180170209 A KR20180170209 A KR 20180170209A KR 20200080598 A KR20200080598 A KR 20200080598A
Authority
KR
South Korea
Prior art keywords
mobile robot
data
driving
calculating
marker frame
Prior art date
Application number
KR1020180170209A
Other languages
English (en)
Other versions
KR102203284B1 (ko
Inventor
후젠카이
임기웅
황영기
Original Assignee
(주) 퓨처로봇
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 퓨처로봇 filed Critical (주) 퓨처로봇
Priority to KR1020180170209A priority Critical patent/KR102203284B1/ko
Publication of KR20200080598A publication Critical patent/KR20200080598A/ko
Application granted granted Critical
Publication of KR102203284B1 publication Critical patent/KR102203284B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/90Lidar systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명에 의한 이동 로봇의 주행 평가 방법은 이동 로봇이 현재 위치와 방향에 대한 제1데이터를 산출하는 단계, 상기 이동 로봇이 마커 프레임과 라이다를 이용하여 상기 이동 로봇의 현재 위치와 방향에 대한 제2데이터를 산출하는 단계, 상기 이동 로봇이 상기 제1데이터와 상기 제2데이터를 비교하여 오차를 계산하는 단계 및 상기 이동 로봇이 상기 오차 계산 결과에 따라 상기 이동 로봇의 위치 또는 방향 중 어느 하나 이상을 보정하는 단계를 포함할 수 있다.

Description

이동 로봇의 주행 평가 방법{METHOD FOR EVALUATING MOBILE ROBOT MOVEMENT}
본 발명은 이동 로봇의 주행 평가 방법에 관한 것이다. 보다 자세하게는, 이동 로봇의 위치 또는 방향 중 적어도 하나의 오차를 보정하는 이동 로봇의 주행 평가 방법에 관한 것이다.
스스로 주행이 가능한 이동 로봇은 사람을 대신하여 작업을 수행할 수 있으므로, 사용자의 편의를 위해 다양한 분야에 적용되고 있다.
이동 로봇이 자율적으로 이동하면서 임무를 수행하기 위해서는 자기 위치 인식 기술이 필요하며, 초음파, 레이저 등과 같은 센서를 통해 장애물을 인식하여 경로 계획을 통해 목적지로 이동할 수 있다.
이동 로봇은 공간에서 효과적으로 위치를 판단하며 이동하기 위해서는 이동하고 있는 공간상의 자신의 위치를 인식하여야 한다.
그러나 종래의 이동 로봇은 위치 인식 결과의 오차가 얼마나 발생했는지 정확히 알아내는 데 어려움이 있다. .
본 발명은 위치 인식 결과의 오차를 정확하게 보정함으로써 이와 같은 문제점을 해결할 수 있는 이동 로봇의 주행 평가 방법에 관한 것이다.
한국공개특허공보 제10-2011-0061923호(2011.06.10.)
본 발명이 해결하고자 하는 기술적 과제는 이동 로봇의 위치 또는 방향의 오차가 얼마나 발생했는지 알아낸 후에 이를 보정하여 정확한 경로 계획을 통해 공간을 효율적으로 주행하도록 하는 이동 로봇의 주행 평가 방법을 제공하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
기술적 과제를 달성하기 위한 본 발명의 일 실시 예에 따른 이동 로봇의 주행 평가 방법은 이동 로봇이 현재 위치와 방향에 대한 제1데이터를 산출하는 단계, 상기 이동 로봇에 배치된 마커 프레임을 이용하여 상기 이동 로봇의 현재 위치와 방향에 대한 제2데이터를 산출하는 단계, 상기 이동 로봇이 상기 제1데이터와 상기 제2데이터를 비교하여 오차를 계산하는 단계 및 상기 이동 로봇이 상기 오차 계산 결과에 따라 상기 이동 로봇의 위치 또는 방향 중 어느 하나 이상을 보정하는 단계를 포함할 수 있다.
일 실시 예에 따르면, 상기 제2데이터를 산출하는 단계는, 상기 이동 로봇이 주행하는 공간에 배치된 라이다를 원점으로 하여 삼각기둥 형상의 상기 마커 프레임의 좌표를 측정하여 상기 이동 로봇의 위치 정보를 생성할 수 있다.
일 실시 예에 따르면, 상기 제2 데이터를 산출하는 단계는, 상기 삼각기둥 형상의 마커 프레임에서 적어도 하나 이상의 직선을 감지하고, 상기 직선에 대한 중심 좌표를 계산하여 상기 이동 로봇의 위치 정보를 생성할 수 있다.
일 실시 예에 따르면, 상기 제2데이터를 산출하는 단계는, 상기 마커 프레임의 좌표를 이용하여 상기 마커 프레임이 포함하는 삼각형 형상의 서로 다른 세 변의 길이를 측정하여 상기 이동 로봇의 방향 정보를 생성할 수 있다.
일 실시 예에 따르면, 상기 제2데이터를 산출하는 단계 이전에, 상기 이동 로봇이 상기 라이다의 통신 반경에 위치하는 지 판단하는 단계를 더 포함할 수 있다.
일 실시 예에 따르면, 상기 오차를 계산하는 단계는, 상기 제1데이터와 상기 제2데이터의 차이의 절대 값을 계산할 수 있다.
일 실시 예에 따르면, 상기 오차를 보정하는 단계는, 상기 제1데이터와 상기 제2데이터의 오차 계산 결과가 기 설정된 기준보다 이상인 경우에 수행될 수 있다.
일 실시 예에 따르면, 상기 오차를 보정하는 단계는, 상기 제2데이터를 이용하여 상기 이동 로봇의 위치 또는 방향 중 어느 하나의 오차를 보정할 수 있다.
일 실시 예에 따르면, 상기 이동 로봇의 마커 프레임은, 삼각 기둥 형상으로 이루어질 수 있다.
본 발명에 따르면, 이동 로봇이 인식한 이동 로봇의 위치 또는 방향 중 어느 하나 이상의 오차를 보정하여 정확한 경로 계획을 통해 공간을 효율적으로 주행할 수 있다는 효과가 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.
도 1은 본 발명의 일 실시 예에 따른 이동 로봇의 외관을 나타낸 도면이다.
도 2는 본 발명의 일 실시 예에 따른 이동 로봇의 내부 구성을 개략적으로 나타낸 도면이다.
도 3은 본 발명의 일 실시 예에 따른 이동 로봇의 주행 평가 방법의 순서도를 나타낸 도면이다.
도 4는 본 발명의 일 실시 예에 따른 라이다가 배치된 이동 로봇의 주행 공간의 예시를 나타낸 도면이다.
도 5는 본 발명의 일 실시 예에 따른 이동 로봇이 마커 프레임의 위치 좌표를 측정하는 것을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시 예에 따른 이동 로봇이 측정한 마커 프레임의 위치 좌표에 대한 정확도를 높이는 것을 설명하기 위한 도면이다.
도 7 및 8은 본 발명의 일 실시 예에 따른 이동 로봇이 마커 프레임의 방향을 인식하는 것을 설명하기 위한 도면이다.
이하에서 본 발명의 기술적 사상을 명확화하기 위하여 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예를 상세하게 설명하도록 한다. 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성요소에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략할 것이다. 도면들 중 실질적으로 동일한 기능구성을 갖는 구성요소들에 대하여는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 참조번호들 및 부호들을 부여하였다. 설명의 편의를 위하여 필요한 경우에는 장치와 방법을 함께 서술하도록 한다.
명세서에서 사용되는 "포함한다 (comprises)" 및/또는 "포함하는 (comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
이하, 본 발명에 대하여 첨부된 도면에 따라 보다 상세히 설명한다.
도 1은 본 발명의 일 실시 예에 따른 이동 로봇(500)의 외관을 개략적으로 도시한 도면이다.
도 1을 참조하면, 이동 로봇(500)은 외관을 형성하는 본체(100), 본체(100)의 상부에 배치된 마커 프레임(200), 위치 인식 센서(300) 및 본체(100)를 이동시키는 구동부(400)를 포함한다.
본체(100)는 이동 로봇(500)의 외관을 형성하는 한편, 그 내부에 설치되는 각종 구성들을 지지한다.
마커 프레임(200)은 본체(100)의 상부에 배치되며, 삼각 기둥 형상으로 이루어질 수 있다. 즉, 마커 프레임(200)은 세 개의 변으로 구성될 수 있다.
위치 인식 센서(300)는 이동 로봇(500)의 주위 환경을 식별하여, 이동 로봇(500)의 위치를 인식할 수 있다. 그에 따라, 이동 로봇(500)은 자율 적으로 주행하며 주어진 작업을 수행할 수 있으며, 후술하게 될 본체(100) 내부의 제어부(160)를 통해 위치 인식 센서(300)가 인식한 정보를 기초로 주행 공간에 대한 지도를 생성할 수도 있다.
또한, 위치 인식 센서(300)는 본체(100)와 마커 프레임(200) 사이에 배치될 수 있으며, 이동 로봇(500)에 가해지는 물리적인 충격에도 고정될 수 있도록 센서 케이스(300a) 내에 고정 결합될 수 있다. 뿐만 아니라, 센서 케이스(300a)는 상단에 기둥 형상으로 배치된 마커 프레임(200)을 이동 로봇(500)에 고정시킬 수도 있다.
구동부(400)는 본체(100)의 하부에 배치되어 이동 로봇(500)이 전진, 후진, 회전주행 등의 이동 동작이 가능하도록 한다.
본 발명에 따르면, 구동부(400)는 후술하는 제어부(160)의 명령에 따라 전방 또는 후방으로 각각 회전하여 이동 로봇(500)이 전진 또는 후진하거나 회전할 수 있도록 한다.
구동부(400)는 이동 로봇(500)의 이동을 위한 바퀴나, 다리와 같은 물리적인 장비를 포함할 수 있다.
도 2는 본 발명의 일 실시 예에 따른 이동 로봇(500)의 내부 구성을 개략적으로 나타낸 도면이다.
도 2를 참조하면, 이동 로봇(500)은 본체(100) 내부에 센싱부(120), 통신부(140) 및 제어부(160)를 포함한다.
센싱부(120)는 이동 로봇(500)이 주행하는 공간에 대한 정보를 수집하기 위한 다양한 센서들을 포함한다.
본 발명에 따르면, 센싱부(120)는 카메라, IMU(Inertial Measurement Unit), 초음파 센서, GPS 모듈, PDS(Position Sensitive Detector) 등과 같은 센서들 중 적어도 하나 이상을 포함할 수 있다.
실시 예에 따라, 센싱부(120)가 카메라를 포함하는 경우, 카메라는 보다 넓은 주변 영상을 획득하기 위하여 광각 카메라일 수 있다. 예를 들어, 광각 카메라는 60° 내지 360°의 화각을 가지는 광각 렌즈를 이용할 수 있다.
한편, 센싱부(120)는 획득한 센싱 정보를 처리할 수 있으며 예를 들어, 센싱부(120)는 카메라를 통해 획득한 영상 정보를 미리 설정된 기준으로 상하로 분할하여 하부 영상으로서 바닥면을 촬영한 영상과 상부 영상을 생성할 수 있다. 이러한 바닥면을 촬영한 영상 정보를 생성함으로써, 센싱부(120)는 이동 로봇(500)이 주행 시 바닥면에서 미끄러지거나 헛돌 경우에 실제 주행 거리와 구동부(400)의 주행 거리가 상이해지고 이로 인해 이동 로봇(500)의 위치 인식이 실패하는 문제점을 방지할 수 있다.
통신부(140)는 센싱부(120)를 통해 획득한 정보를 네트워크를 통해 제어부(160)로 전송하기 위한 통신 기능을 수행할 수 있다.
통신부(140)는 무선 통신으로 제어부(160)와 연결되고 Wi-Fi와 같은 무선 네트워크를 자체적으로 지원할 수도 있으며, 이 외에도 무선 통신을 위한 다양한 통신 방식을 지원하는 RF(Radio Frequency) 칩(chip)이나 회로(circuit)를 포함할 수 있다.
실시 예에 따라, 통신부(140)는 이동 로봇(500)이 주행하는 공간에 배치된 라이다(600) 및 이동 경로 평가 시스템(700)으로 이동 로봇(500)이 인식한 위치 정보(제1 데이터)를 송신할 수 있으며, 이동 경로 평가 시스템(700)으로부터 이동 로봇(500)의 위치 정보(제2 데이터)를 수신할 수 있다. 즉, 이동 로봇(500)은 라이다(600) 및 이동 경로 평가 시스템(700)을 이용하여 실시간으로 현재 위치에 대한 오차 계산을 수행할 수 있다.
제어부(160)는 이동 로봇(500)에 내장된 물리적인 프로세서일 수 있으며, 위치 인식부(162), 맵핑부(164) 및 경로 계획부(166)를 포함할 수 있다.
위치 인식부(162)는 위치 인식 센서(300)가 수집한 정보를 통해 이동 로봇(500)이 주행 공간을 인식하고 자신의 위치를 추정할 수 있다.
본 발명에 따르면, 위치 인식부(162)는 맵핑부(164)와의 연동을 통해 기 저장된 지도와 현재 위치와의 맵핑을 처리하거나 기 저장된 지도가 없는 경우에는 지도를 생성할 수 있다. 예를 들어, 위치 인식부(162)는 GPS(Global Positioning System) 좌표, IMU(Inertial Measurement Unit)의 센싱값 및 SLAM 기술 중 적어도 하나를 이용할 수 있다.
맵핑부(164)는 이동 로봇(500)이 자율 주행을 수행하면서 주행 공간에 대한 지도를 작성하거나 이미 작성된 지도를 관리할 수 있다.
보다 구체적으로, 맵핑부(164)는 미지의 주행 공간을 돌아다니면서 이동 로봇(500)에 부착되어 있는 센싱부(120)를 통해 외부의 도움 없이 주행 공간에 대한 정확한 지도를 작성하거나 주행 공간과 기 저장된 지도를 매칭하기 위해 SLAM(Simultaneous Localization And Mapping)이나 CML(concurrent Mapping and Localization)과 같은 기술을 이용할 수 있다. 또한, 맵핑부(164)는 카메라의 2차원 데이터를 3차원 정보로 변환하기 위한 SFM(structure From Motion)과 같은 기술을 3차원 지도의 생성을 위해 이용할 수 있다.
경로 계획부(166)는 이동 로봇(500)의 자율 주행을 위한 경로를 계획할 수 있다. 예를 들어, 경로 계획부(166)는 RRT(Rapidly-exploring Random Tree), 경로를 찾기 위한 A 스타 알고리즘, D 스타 알고리즘, 다익스트라 알고리즘(Dijkstra algorithm) 등을 이용할 수 있다.
본 발명에 따르면, 경로 계획부(166)는 이동 로봇(500)이 해당 경로에 따라 주행 시 움직이는 장애물을 마주하였을 때, 새로운 경로를 계획할 수 있다.
이하 도 3을 참조하여, 본 발명의 일 실시 예에 따른 이동 로봇(500)의 주행 평가 방법에 대해 설명한다.
도 3은 본 발명의 일 실시 예에 따른 이동 로봇(500)의 주행 방법의 순서도를 나타낸 도면이다. 이는 본 발명의 목적을 달성함에 있어서 바람직한 순서도에 해당하나, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다.
먼저, 이동 로봇(500)은 현재 위치와 방향에 대한 제1데이터를 산출한다(S110).
본 발명에 따르면, 제1데이터는 이동 로봇(500)의 위치 좌표 또는 방향 정보 중 적어도 하나를 포함할 수 있다. 여기서 이동 로봇(500)의 위치 좌표는 이동 로봇(500)이 주행 공간에서 이동 로봇(500)이 위치하고 있는 좌표를 의미할 수 있다. 예를 들어, 위치 좌표는 기 저장된 지도의 특정 부분을 원점으로 하거나, 고정된 물체를 원점으로 하여 측정된 좌표일 수 있다.
본 발명에 따르면, 이동 로봇(500)은 센싱부(120)가 획득한 센싱 데이터를 이용하여 이동 로봇(500)의 현재 위치와 방향에 대한 정보를 산출할 수 있다. 보다 구체적으로, 이동 로봇(500)은 기 저장된 지도를 이용하여 공간을 주행하는 이동 로봇(500)의 위치와 방향을 인식할 수 있다.
이 때, 지도는 이동 로봇(500)이 해당 주행 공간을 돌아다니며 생성한 지도이거나, 기 저장된 지도일 수 있다. 기 저장된 지도는 2차원 격자 지도 또는 3차원 격자 지도 일 수 있으며, 격자 지도는 이동 로봇(500)의 주변 환경을 작은 격자로 나누어 각 격자에 물체가 있을 가능성을 확률적으로 표현한 지도로서, 확률 격자 지도라고도 한다.
또한, 이동 로봇(500)은 해당 단계를 수행하기 전에 공간을 주행하며 다양한 방식으로 주행 공간에 대한 지도를 생성할 수 있다. 예를 들어, 이동 로봇(500)은 주행하면서 센싱부(120)를 통해 주행 공간에 대한 영상 정보를 획득하고, 영상 정보를 이용하여 확장 칼만 필터 기반의 지도 작성을 수행할 수 있다.
이동 로봇(500)은 이동 로봇(500)이 라이다(600)의 통신 반경에 위치하는 지 판단한다(S120).
라이다(600)는 이동 로봇(500)이 주행하는 공간에 일정 간격을 가지며 하나 이상 배치될 수 있다. 여기서, 라이다(Lidar)는 전파에 가까운 성질을 가진 레이저 광선을 이용하여 개발된 레이더로서, 이동 로봇(500)이 주행하는 공간에 하나 이상 배치될 수 있다.
도 4는 본 발명의 일 실시 예에 따른 라이다(600)가 배치된 이동 로봇(500)의 주행 공간의 예시를 나타낸 도면이다.
도 4를 참조하면, 하나 이상의 라이다(600)는 주행 공간의 모서리에 배치될 수 있으며, 라이다(600)의 통신 반경이 겹치지 않도록 배치될 수 있다. 또한, 하나 이상의 라이다(600)는 통신 반경이 이동 로봇(500)의 모든 주행 공간에 미칠 수 있도록 일정 간격을 가지며 배치될 수 있다.
아울러, 라이다(600)와 이동 로봇(500)과의 통신을 위해, 이동 로봇(500)의 마커 프레임(200)의 크기 또는 높이는 장애물(O)의 크기 또는 높이보다 클 수 있다.
한편, 이동 로봇(500)이 라이다(600)의 통신 반경에 위치하지 않는 경우, 이동 로봇(500)은 공간을 자율 주행하며 S110 단계를 재수행할 수 있다.
다시 도 3을 참조하면, S120 단계에서 이동 로봇(500)이 라이다(600)의 통신 반경에 위치하는 경우, 이동 로봇(500)은 이동 로봇(500)의 상부에 배치된 마커 프레임(200)과 라이다(600)를 이용하여 이동 로봇(500)의 현재 위치와 방향에 대한 제2데이터를 산출한다(S130).
본 발명에 따르면, 이동 로봇(500)은 자율 주행을 하면서 라이다(600)의 통신 반경에 위치하는 경우에 해당 라이다(600)를 원점으로 하여 이동 로봇(500)에 배치된 마커 프레임(200)의 좌표를 측정할 수 있다.
또한, 이동 로봇(500)에 배치된 마커 프레임(200)이 삼각 기둥 형상으로 이루어지는 바, 이동 로봇(500)이 현재 위치와 방향에 대한 제2 데이터를 산출하는 방식은, 삼각 기둥 각각의 변을 인식하여 좌표를 측정하는 방식과, 이에 더하여 적어도 두 변을 이용하여 거리를 산출하고 측정된 좌표의 정확도를 높이는 방식의 두 가지로 수행될 수 있다.
<실시 예 1. 마커 프레임(200) 각 모서리의 좌표 인식>
도 5는 본 발명의 일 실시 예에 따른 이동 로봇(500)이 마커 프레임(200)의 위치 좌표를 측정하는 것을 설명하기 위한 도면이다.
도 5의 (a)를 참조하면, 라이다(600)는 360° 전방으로 광을 방출할 수 있으며, 이동 로봇(500)으로부터 반사되는 광을 수집하여, 수집된 광에 대한 각도를 판단하여 이동 로봇(500)의 좌표를 인식할 수 있다.
보다 구체적으로, 라이다(600)는 360° 전방으로p개의 레이저 광을 방출할 수 있다. 이 때, p개의 레이저 간의 각도는 일정할 수 있으며, 하나의 광 축을 카운트 0으로 설정하고 이를 0번째 광이라고 가정할 경우, n번째 광(n<p)에 대한 각도는
Figure pat00001
가 된다. 즉, 라이다(600)가 레이저 광을 방출하고, 장애물(이동 로봇(500), M)으로부터 n번째 광을 수집한 경우, 그에 대한 각도를 추정할 수 있으며, 라이다(600)가 방출하는 레이저의 개수가 많을수록 장애물(M)이 배치된 곳에 대한 각도를 정확하게 측정할 수 있다.
아울러, 레이저 광이 방출되는 라이다(600)의 중심점을 원점(0, 0)으로 하였을 때, 측정한 각도를 기초로 장애물(M)에 대한 (x, y) 좌표 및 거리(d)는 아래의 식과 같이 구해질 수 있으며, 이 때, 거리(d)는 수광되는 속도를 기준으로 측정할 수 있다.
[식 1]
Figure pat00002
Figure pat00003
이를 응용하여 도 5의 (b)를 참조하면, 마커 프레임(200)의 각 모서리의 위치 좌표를 각각 M1, M2, M3라고 했을 때, 이동 로봇(500)은 M1, M2, M3의 좌표인 M1(x1, y1), M2(x2, y2), M3(x3, y3)를 측정할 수 있음과 동시에, 마커 프레임(200)의 각 변의 길이(d1, d2, d3)를 다음과 같이 구할 수 있다.
[식 2]
d1 =
Figure pat00004
,
d2 =
Figure pat00005
,
d3 =
Figure pat00006
<실시 예 2. 마커 프레임(200) 각 모서리의 좌표 보정>
도 6은 본 발명의 일 실시 예에 따른 이동 로봇이 측정한 마커 프레임(200)의 위치 좌표에 대한 정확도를 높이는 것을 설명하기 위한 도면이며, 이하에서 설명하는 위치 좌표 계산 과정은 라이다(600)의 통신 반경 내에 하나의 이동 로봇(500) 외에 아무런 장애물이 존재하지 않는 것을 전제로 한다.
도 6 (a)를 참조하면 이동 로봇(500)은 라이다(600)가 방출한 광을 기준으로 마커 프레임(200)의 모서리에 대한 위치 정보 P(N1)=(d1, N1), P(N2) =(d2, N2) (d: 라이다(600)와 마커 프레임(200) 모서리 간의 거리, N#: 라이다(600)가 방출한 #번째 빛)를 측정할 수 있으며, 마커 프레임(200)의 한 변 길이 및 한 변의 중심 좌표(m)를 계산할 수 있다.
그에 따라, 도 6 (b)를 참조하면, 이동 로봇(500)은 현재 측정한 마커 프레임(200)의 하나의 모서리 간의 거리(d)와 기 저장된 마커 프레임(200)의 각 변 길이(L1, L2, L3)를 비교하여, 라이다(600)를 통해 어떠한 변을 인식하였는지 확인할 수 있으며, 현재 이동 로봇(500)의 이동 방향과 함께 보다 정확한 위치 좌표를 측정할 수 있다.
한편, 마커 프레임(200)을 이루는 삼각 기둥의 세 변은 서로 다른 길이를 가지며, 세 변의 서로 다른 길이를 통해 이동 로봇(500)의 방향을 파악할 수 있다.
도 7은 본 발명의 일 실시 예에 따른 이동 로봇(500)이 마커 프레임(200)의 방향을 인식하는 것을 설명하기 위한 도면이다.
도 7을 참조하면, 마커 프레임(200)을 이루는 삼각형의 세 변의 길이 중 d1을 기준 A으로 정한 후, 이동 로봇(500)은 라이다(600)로부터 세 변의 길이 중 A가 배치된 방향을 인식할 수 있다.
한편, 마커 프레임(200)의 삼각형의 꼭짓점을 임의로 a', b', c'라고 정한 후, 이동 로봇(500)은 꼭짓점 사이의 거리를 구해 d1과 동일한 길이를 갖는 삼각형의 변을 A로 인식하여 라이다(600)로부터 A가 배치된 방향을 인식할 수도 있다.
이와 같이, 이동 로봇(500)은 마커 프레임(200)의 방향을 통해 해당 라이다(600)를 기준으로 이동 로봇(500)의 방향을 인식할 수 있다.
한편, 이동 로봇(500)은 라이다(600)를 이용하여 위치 좌표를 측정하기 전, 이동 로봇(500)의 개략적인 이동 방향을 파악할 수 있다.
도 8은 본 발명의 일 실시 예에 따른 이동 로봇(500)이 측정한 마커 프레임(200)의 배치 방향을 확인하는 방식을 설명하기 위한 도면이다.
도 8을 참조하면, 라이다(600)가 360° 전방으로 방출한 p개의 레이저 광 중에서, 마커 프레임(200)으로부터 반사되는 Na, Nb, Nc 번째 광(a, b, c ∈n)을 수집할 수 있다. 그에 따라, Nc 번째 광이 Na, Nb 번째 광 사이에 속하는 경우, 마커 프레임(200)의 배치 방향은, (a)와 같이 라이다(600)와 마주보는 방향이거나, (b)와 같이 라이다(600)를 마주보고 있지 않은 방향일 수 있다.
세 개의 광을 수집한 이 후, 이동 로봇(500)은 마커 프레임(200)의 모서리와 라이다(600) 간의 거리(d)를 계산함으로써, Nc 번째 광 축을 기준으로 하는 라이다(600)와 하나의 모서리 간의 거리(L3)가 Na, Nb 번째 광 축을 기준으로 하는 라이다(600)와 두 개의 모서리 간의 거리(L1, L2)보다 큰 경우, 마커 프레임(200)이 (b)와 같이 라이다(600)를 마주보고 있지 않은 방향에 배치된 것으로 파악할 수 있으며, 이와 반대로 Nc 번째 광 축을 기준으로 하는 라이다(600)와 하나의 모서리 간의 거리(L3)가 Na, Nb 번째 광 축을 기준으로 하는 라이다(600)와 두 개의 모서리 간의 거리(L1, L2)보다 작은 경우, 마커 프레임(200)이 (a)와 같이 라이다(600)를 마주본 방향에 배치된 것으로 파악할 수 있다.
이와 같이, 이동 로봇(500)은 마커 프레임(200)의 배치 방향을 개략적으로 판단할 수 있으며, 공간을 주행하면서 제1데이터를 산출함과 동시에 제2데이터를 산출할 수 있다.
다시 도 3을 참조하면, 이동 로봇(500)은 제1데이터 및 제2데이터를 비교하여 오차를 계산한다(S140).
보다 구체적으로, 이동 로봇(500)은 제1데이터의 위치 좌표와 제2데이터의 위치 좌표를 비교하여 오차를 구하거나, 제1데이터의 방향 정보와 제2데이터의 방향 정보를 비교하여 오차를 구할 수 있다.
본 발명에 따르면, 오차는 제1데이터와 제2데이터의 차의 절대 값으로 구할 수 있다.
한편, 이동 로봇(500)은 제1데이터와 제2데이터를 비교하여 오차를 계산하기 위해 위치 좌표의 원점을 동일하게 변환할 수 있다. 여기서, 제1데이터는 지도의 특정 부분을 원점으로 한 이동 로봇(500)의 위치 좌표를 포함하며, 제2데이터는 라이다(600)를 원점으로 한 이동 로봇(500)의 위치 좌표를 포함할 수 있다. 이런 경우, 이동 로봇(500)은 제1데이터와 제2데이터를 비교하여 오차를 계산하기 어려우므로, 제1데이터의 위치 좌표의 원점과 제2데이터의 위치 좌표의 원점을 동일하게 하여야 한다.
본 발명에 따르면, 이동 로봇(500)은 제1데이터의 위치 좌표의 원점을 라이다(600)로 원점을 변환하여 제2데이터의 원점과 동일하게 할 수 있다. 예를 들어, 제1데이터의 위치 좌표가 (3,4)이고, 제1데이터의 위치 좌표의 원점에서 해당 라이다(600)의 위치 좌표는 (2,2)인 경우, 제1데이터의 원점을 제2데이터의 원점으로 변환하면, 제1데이터의 위치 좌표는 (1,2)가 될 수 있다.
또한, 이동 로봇(500)은 원점을 변환한 제1데이터의 위치 좌표와 제2데이터의 위치 좌표를 비교하여 오차를 계산할 수 있다. 예를 들어, 제1데이터의 위치 좌표는 (1,2)이고, 제2데이터의 위치 좌표는 (1,1)인 경우에, 이동 로봇(500)은 x 좌표의 오차 0, y좌표의 오차 1인 계산 결과를 얻을 수 있다.
이동 로봇(500)은 제1데이터와 제2데이터의 오차 계산 결과가 기 설정된 기준보다 이상인지 파악한다(S150).
본 발명에 따르면, 이동 로봇(500)은 제1데이터와 제2데이터의 오차 계산 결과가 기 설정된 기준보다 이상인 경우, 이동 로봇(500)의 위치 또는 방향 중 어느 하나의 오차를 보정할 수 있다. 여기서, 기 설정된 기준은 사용자가 설정함에 따라 서로 다른 값일 수 있으며 예를 들어, 기 설정된 기준은 이동 로봇(500)의 위치 또는 방향 중 어느 하나의 오차를 정교하게 보정하고자 한다면 작은 값으로 설정될 수 있다.
S150 단계에서 오차 계산 결과가 기 설정된 기준보다 이상인 경우, 이동 로봇(500)은 이동 로봇(500)의 위치 또는 방향 중 어느 하나 이상을 보정한다(S160).
본 발명에 따르면, 이동 로봇(500)은 제2데이터를 이용하여 이동 로봇(500)의 위치 또는 방향 중 어느 하나 이상의 오차를 보정할 수 있다. 예를 들어, 제1데이터의 위치 좌표가 (1,2)이고 제2데이터의 위치 좌표가 (1,1)인 경우, 이동 로봇(500)은 제1데이터의 위치 좌표를 제2데이터의 위치 좌표인 (1,1)로 보정할 수 있다.
이동 로봇(500)은 이동 로봇(500)의 위치 또는 방향의 오차 중 어느 하나 이상을 보정하여, 경로 계획을 재설정한 후 이동 로봇(500)이 해당 경로에 따라 주행하도록 할 수 있다.
한편, S150 단계에서 오차 계산 결과가 기 설정된 기준보다 이하로 판단되는 경우, 이동 로봇(500)은 앞서 서술한 단계들을 재 수행할 수 있다.
지금까지 설명한 본 발명의 일 실시 예에 따른 이동 로봇(500)의 주행 방법에 대해 설명하였다.
본 발명에 따르면, 이동 로봇(500)은 이동 로봇(500)의 위치 또는 방향 중 어느 하나의 오차를 보정하여 이동 로봇(500)의 정확한 현재 위치를 확인할 수 있도록 할 수 있다.
또한, 본 발명에 따르면, 이동 로봇(500)의 정확한 현재 위치 정보를 통해 효율적인 이동 로봇(500)의 경로를 계획할 수 있다.
한편, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 실시 형태로 실시될 수 있다는 것을 인지할 수 있을 것이다. 따라서 이상에서 기술한 실시예들은 예시적인 것일 뿐이며, 그 범위를 제한해놓은 한정적인 것이 아닌 것으로 이해해야만 한다. 또한, 도면에 도시된 순서도들은 본 발명을 실시함에 있어서 가장 바람직한 결과를 달성하기 위해 예시적으로 도시된 순차적인 순서에 불과하며, 다른 추가적인 단계들이 제공되거나, 일부 단계가 삭제될 수 있음은 물론이다.
본 명세서에서 기술한 기술적 특징과 이를 실행하는 구현물은 디지털 전자 회로로 구현되거나, 본 명세서에서 기술하는 구조 및 그 구조적인 등가물 등을 포함하는 컴퓨터 소프트웨어, 펌웨어 또는 하드웨어로 구현되거나, 이들 중 하나 이상의 조합으로 구현 가능하다. 또한 본 명세서에서 기술한 기술적 특징을 실행하는 구현물은 컴퓨터 프로그램 제품, 다시 말해 처리 시스템의 동작을 제어하기 위하여 또는 이것에 의한 실행을 위하여 유형의 프로그램 저장매체 상에 인코딩된 컴퓨터 프로그램 명령어에 관한 모듈로서 구현될 수도 있다.
컴퓨터로 판독 가능한 기록매체는 기계로 판독 가능한 저장 장치, 기계로 판독 가능한 저장 기판, 메모리 장치, 기계로 판독 가능한 전파형 신호에 영향을 미치는 물질의 조성물 또는 이들 중 하나 이상의 조합일 수 있다.
한편, 본 명세서에서 '장치'라 함은 예를 들어, 프로세서, 컴퓨터 또는 다중 프로세서나 컴퓨터를 포함하여 데이터를 처리하기 위한 모든 기구, 장치 및 기계를 모두 포함한다.
프로그램, 소프트웨어, 소프트웨어 애플리케이션, 스크립트 또는 코드 등으로 알려진 컴퓨터 프로그램은 컴파일 되거나 해석된 언어 또는 선험적, 절차적 언어를 포함하는 프로그래밍 언어의 어떠한 형태로도 작성될 수 있으며, 독립형 프로그램이나 모듈, 컴포넌트, 서브루틴 또는 컴퓨터 환경에서 사용하기에 적합한 다른 유닛을 포함하여 어떠한 형태로도 구현될 수 있다. 한편, 컴퓨터 프로그램은 파일 시스템의 파일에 반드시 대응되는 것은 아니며, 요청된 프로그램에 제공되는 단일 파일 내에 또는 다중의 상호 작용하는 파일(예를 들어, 하나 이상의 모듈, 하위 프로그램 또는 코드의 일부를 저장하는 파일)내에, 또는 다른 프로그램이나 데이터를 보유하는 파일의 일부(예를 들어, 마크업 언어 문서 내에 저장되는 하나 이상의 스크립트)내에 저장될 수 있다. 컴퓨터 프로그램은 하나의 사이트에 위치하거나 복수의 사이트에 걸쳐서 분산되어 유/무선 통신 네트워크에 의해 상호 접속된 다중 컴퓨터나 하나 이상의 컴퓨터 상에서 실행되도록 구현될 수 있다.
또한, 순서도의 경우 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 가장 바람직한 결과를 얻기 위하여 도시된 것으로서, 도시된 특정한 순서나 순차적인 순서대로 그러한 동작들을 반드시 실행되어야 한다거나 모든 도시된 동작들이 반드시 실행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티 태스킹과 병렬 프로세싱이 유리할 수 있다. 아울러, 이상에서 기술한 실시형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징될 수 있다는 점을 이해하여야 한다.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
이상 첨부된 도면을 참조하여 본 발명의 실시 예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
500: 이동 로봇
100: 본체
120: 센싱부
140: 통신부
160: 제어부
162: 위치 인식부
164: 맵핑부
166: 경로 계획부
200: 마커 프레임
300: 위치 인식 센서
400: 구동부
600: 라이다

Claims (9)

  1. 이동 로봇이 현재 위치와 방향에 대한 제1데이터를 산출하는 단계;
    상기 이동 로봇에 배치된 마커 프레임을 이용하여 상기 이동 로봇의 현재 위치와 방향에 대한 제2데이터를 산출하는 단계;
    상기 이동 로봇이 상기 제1데이터와 상기 제2데이터를 비교하여 오차를 계산하는 단계; 및
    상기 이동 로봇이 상기 오차 계산 결과에 따라 상기 이동 로봇의 위치 또는 방향 중 어느 하나 이상을 보정하는 단계;
    를 포함하는 이동 로봇의 주행 평가 방법.
  2. 제1항에 있어서,
    상기 제2데이터를 산출하는 단계는,
    상기 이동 로봇이 주행하는 공간에 배치된 라이다를 원점으로 하여 삼각기둥 형상의 상기 마커 프레임의 좌표를 측정하여 상기 이동 로봇의 위치 정보를 생성하는,
    이동 로봇의 주행 평가 방법.
  3. 제2항에 있어서,
    상기 제2 데이터를 산출하는 단계는,
    상기 삼각기둥 형상의 마커 프레임에서 적어도 하나 이상의 직선을 감지하고, 상기 직선에 대한 중심 좌표를 계산하여 상기 이동 로봇의 위치 정보를 생성하는,
    이동 로봇의 주행 평가 방법.
  4. 제2항에 있어서,
    상기 제2데이터를 산출하는 단계는,
    상기 마커 프레임의 좌표를 이용하여 상기 마커 프레임이 포함하는 삼각형 형상의 서로 다른 세 변의 길이를 측정하여 상기 이동 로봇의 방향 정보를 생성하는,
    이동 로봇의 주행 평가 방법.
  5. 제2항에 있어서,
    상기 제2데이터를 산출하는 단계 이전에,
    상기 이동 로봇이 상기 라이다의 통신 반경에 위치하는 지 판단하는 단계; 를 더 포함하는,
    이동 로봇의 주행 평가 방법.
  6. 제1항에 있어서,
    상기 오차를 계산하는 단계는,
    상기 제1데이터와 상기 제2데이터의 차이의 절대 값을 계산하는,
    이동 로봇의 주행 평가 방법.
  7. 제1항에 있어서,
    상기 오차를 보정하는 단계는,
    상기 제1데이터와 상기 제2데이터의 오차 계산 결과가 기 설정된 기준보다 이상인 경우에 수행되는,
    이동 로봇의 주행 평가 방법.
  8. 제1항에 있어서,
    상기 오차를 보정하는 단계는,
    상기 제2데이터를 이용하여 상기 이동 로봇의 위치 또는 방향 중 어느 하나의 오차를 보정하는,
    이동 로봇의 주행 평가 방법.
  9. 제1항에 있어서,
    상기 이동 로봇의 마커 프레임은, 삼각 기둥 형상으로 이루어지는,
    이동 로봇의 주행 평가 방법.
KR1020180170209A 2018-12-27 2018-12-27 이동 로봇의 주행 평가 방법 KR102203284B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180170209A KR102203284B1 (ko) 2018-12-27 2018-12-27 이동 로봇의 주행 평가 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180170209A KR102203284B1 (ko) 2018-12-27 2018-12-27 이동 로봇의 주행 평가 방법

Publications (2)

Publication Number Publication Date
KR20200080598A true KR20200080598A (ko) 2020-07-07
KR102203284B1 KR102203284B1 (ko) 2021-01-15

Family

ID=71603317

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180170209A KR102203284B1 (ko) 2018-12-27 2018-12-27 이동 로봇의 주행 평가 방법

Country Status (1)

Country Link
KR (1) KR102203284B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220049718A (ko) * 2020-10-15 2022-04-22 주식회사 휴인텍 코딩 교육용 로봇의 위치인식 시스템 및 방법
KR20220102381A (ko) * 2021-01-13 2022-07-20 주식회사 트위니 2d 라이다 기반 추적 대상 인식 방법 및 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110061923A (ko) 2009-12-02 2011-06-10 부산대학교 산학협력단 이동 로봇의 위치 인식 방법
JP2013025351A (ja) * 2011-07-15 2013-02-04 Hitachi Industrial Equipment Systems Co Ltd 位置・姿勢推定可能な移動体システム及び自律移動ロボットシステム
JP2016152003A (ja) * 2015-02-19 2016-08-22 Jfeスチール株式会社 自律移動ロボットの自己位置推定方法、自律移動ロボット、及び自己位置推定用ランドマーク

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110061923A (ko) 2009-12-02 2011-06-10 부산대학교 산학협력단 이동 로봇의 위치 인식 방법
JP2013025351A (ja) * 2011-07-15 2013-02-04 Hitachi Industrial Equipment Systems Co Ltd 位置・姿勢推定可能な移動体システム及び自律移動ロボットシステム
JP2016152003A (ja) * 2015-02-19 2016-08-22 Jfeスチール株式会社 自律移動ロボットの自己位置推定方法、自律移動ロボット、及び自己位置推定用ランドマーク

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220049718A (ko) * 2020-10-15 2022-04-22 주식회사 휴인텍 코딩 교육용 로봇의 위치인식 시스템 및 방법
KR20220102381A (ko) * 2021-01-13 2022-07-20 주식회사 트위니 2d 라이다 기반 추적 대상 인식 방법 및 장치

Also Published As

Publication number Publication date
KR102203284B1 (ko) 2021-01-15

Similar Documents

Publication Publication Date Title
Hata et al. Feature detection for vehicle localization in urban environments using a multilayer LIDAR
KR102548282B1 (ko) 고정밀도 맵 작성 방법 및 장치
CN109459039B (zh) 一种医药搬运机器人的激光定位导航系统及其方法
JP4788722B2 (ja) 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造
US9110472B2 (en) Moving robot and method to build map for the same
US9182763B2 (en) Apparatus and method for generating three-dimensional map using structured light
US20200042803A1 (en) Information processing method, information processing apparatus, and recording medium
US11512975B2 (en) Method of navigating an unmanned vehicle and system thereof
US20070271003A1 (en) Robot using absolute azimuth and mapping method thereof
US20210365038A1 (en) Local sensing based autonomous navigation, and associated systems and methods
US11656083B2 (en) Autonomous tunnel navigation with a robotic system
US9305364B2 (en) Motion estimation systems and methods
CN114236564B (zh) 动态环境下机器人定位的方法、机器人、装置及存储介质
JP7155284B2 (ja) 計測精度算出装置、自己位置推定装置、制御方法、プログラム及び記憶媒体
JP2009110250A (ja) 自律走行移動体の走行経路決定用地図作成装置及び走行経路決定用地図作成方法
CN112539749A (zh) 机器人导航方法、机器人、终端设备及存储介质
US20230116869A1 (en) Multi-sensor-fusion-based autonomous mobile robot indoor and outdoor navigation method and robot
JP2018206004A (ja) 自律走行台車の走行制御装置、自律走行台車
CN112506200B (zh) 机器人定位方法、装置、机器人及存储介质
RU2740229C1 (ru) Способ локализации и построения навигационных карт мобильного сервисного робота
KR102203284B1 (ko) 이동 로봇의 주행 평가 방법
US20230111122A1 (en) Multi-sensor-fusion-based autonomous mobile robot indoor and outdoor positioning method and robot
JP2022530246A (ja) 自己位置推定及び環境地図作成の同時実行
JP2018005709A (ja) 自律移動装置
Csaba et al. Differences between Kinect and structured lighting sensor in robot navigation

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right