KR102433743B1 - 로봇의 지도 구축 및 위치 추적 - Google Patents

로봇의 지도 구축 및 위치 추적 Download PDF

Info

Publication number
KR102433743B1
KR102433743B1 KR1020207034113A KR20207034113A KR102433743B1 KR 102433743 B1 KR102433743 B1 KR 102433743B1 KR 1020207034113 A KR1020207034113 A KR 1020207034113A KR 20207034113 A KR20207034113 A KR 20207034113A KR 102433743 B1 KR102433743 B1 KR 102433743B1
Authority
KR
South Korea
Prior art keywords
robot
scene
map
posture
feature
Prior art date
Application number
KR1020207034113A
Other languages
English (en)
Other versions
KR20210005925A (ko
Inventor
지 저우
신펑 펑
Original Assignee
넥스트브이피유 (상하이) 코포레이트 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 넥스트브이피유 (상하이) 코포레이트 리미티드 filed Critical 넥스트브이피유 (상하이) 코포레이트 리미티드
Publication of KR20210005925A publication Critical patent/KR20210005925A/ko
Application granted granted Critical
Publication of KR102433743B1 publication Critical patent/KR102433743B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D2201/0203

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Instructional Devices (AREA)

Abstract

로봇(201) 및 지도 구축 방법, 위치 추적 방법, 전자 장치, 저장 매체를 개시하였다. 로봇(201)에 사용되는 지도 구축 방법은, 로봇(201)이 소정의 규칙에 따라 작업 영역(201)을 탐색하도록 하고, 로봇(201)이 탐색 과정에서 실시간으로 수집한 장면 이미지에 따라 초기 지도를 구축하고, 초기 지도는 제1 지도 및 제2 지도를 포함하고, 제1 지도는 작업 영역(210)과 지도 좌표계의 맵핑을 포함하고, 제2 지도는 장면 이미지를 수집할 때의 로봇(201)의 위치 자세와 관련지어 저장된 상기 수집한 장면 이미지를 기반으로 추출된 장면 특징, 장면 특징의 기하학적 량, 및 장면 특징을 추출하는 장면 이미지를 포함하고, 위치 자세는 제1 지도에서의 로봇(201)의 좌표 및 방향을 포함하고, 장면 특징은 장면 중의 특징 물체의 특징 및/또는 장면 이미지의 특징을 포함한다.

Description

로봇의 지도 구축 및 위치 추적
본 공개는 로봇 분야에 관한 것으로, 특히 로봇 및 지도 구축 방법, 위치 추적 방법, 전자 장치, 저장 매체에 관한 것이다.
현재, 청소 로봇과 같은 이동 가능한 로봇은 점점 더 많은 가정에서 받아들여져 실제로 사용되고 있다. 일반적인 로봇의 위치 추적 및 지도 구축은 모두 레이저, 적외선 등과 같이 자발적으로 발사되는 신호에 의해 외부 환경을 탐측하여 지도를 구축한다. 예를 들면, 일부 지능형 로봇의 실시간 위치 추적 및 지도 구축 기술은 FastSLAM이다. FastSLAM은 일반적으로 레이저 거리 측정기 또는 소나를 사용하여 구현된다. FastSLAM은 레이저, 소나와 같은 센서를 사용하므로, 특수한 환경에서 로봇이 인식할 수 없어, 예측을 통해서 전체 환경 상황을 추정할 수 밖에 없다.
본 공개의 목적은 로봇 및 지도 구축 방법, 위치 추적 방법, 전자 장치, 저장 매체를 제공하는 것이다.
본 공개의 일 측면에 따르면, 로봇이 소정의 규칙에 따라 작업 영역을 탐색하도록 하고, 상기 로봇이 탐색 과정에서 실시간으로 수집한 장면 이미지에 따라 초기 지도를 구축하는 단계를 포함하고, 상기 초기 지도는 제1 지도 및 제2 지도를 포함하고, 상기 제1 지도는 작업 영역과 지도 좌표계의 맵핑을 포함하고, 상기 제2 지도는 상기 장면 이미지를 수집할 때의 상기 로봇의 위치 자세와 관련지어 저장된 상기 수집한 장면 이미지를 기반으로 추출된 장면 특징, 상기 장면 특징의 기하학적 량, 및 상기 장면 특징을 추출하는 장면 이미지를 포함하고, 상기 위치 자세는 제1 지도에서의 상기 로봇의 좌표 및 방향을 포함하고, 상기 장면 특징은 장면 중의 특징 물체의 특징 및/또는 상기 장면 이미지의 특징을 포함하는, 로봇의 지도 구축 방법을 제공한다.
본 공개의 다른 측면에 따르면, 상기 로봇의 지도 구축 방법에 의해 구축된 지도 및 상기 로봇이 실시간으로 수집한 이미지를 기반으로, 상기 로봇의 현재 위치 자세를 결정하는 단계를 포함하는 로봇의 위치 추적 방법을 더 제공한다.
본 공개의 다른 측면에 따르면,
적어도 실시간으로 로봇 주변의 이미지를 수집하도록 배치되는 센서;
상기 로봇을 구동하여 이동시키도록 배치되는 모터;
로봇이 소정의 규칙에 따라 작업 영역을 탐색하도록 하고, 상기 로봇이 탐색 과정에서 실시간으로 수집한 장면 이미지에 따라 초기 지도를 구축하도록 배치되는 프로세서를 포함하고, 상기 초기 지도는 제1 지도 및 제2 지도를 포함하고, 상기 제1 지도는 작업 영역과 지도 좌표계의 맵핑을 포함하고, 상기 제2 지도는 상기 장면 이미지를 수집할 때의 상기 로봇의 위치 자세와 관련지어 저장된 상기 수집한 장면 이미지를 기반으로 추출된 장면 특징, 상기 장면 특징의 기하학적 량, 및 상기 장면 특징을 추출하는 장면 이미지를 포함하고, 상기 위치 자세는 제1 지도에서의 상기 로봇의 좌표 및 방향을 포함하고, 상기 장면 특징은 장면 중의 특징 물체의 특징 및/또는 상기 장면 이미지의 특징을 포함하는 로봇을 더 제공한다.
본 공개의 다른 측면에 따르면,
프로세서;
컴퓨터 프로그램이 저장되어 있고, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때 상기 방법과 같은 단계를 실행하는 저장 매체를 포함하는 전자 장치를 더 제공한다.
본 공개의 다른 측면에 따르면,
컴퓨터 프로그램이 저장되어 있는 저장 매체로서, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때 상술한 바와 같은 방법의 단계를 실행하는 저장 매체를 더 제공한다.
도면을 참고하여 예시적 실시 형태를 상세하게 설명함으로써, 본 공개의 상술한 내용, 기타 특징 및 장점이 더욱 명확해진다.
도 1은 본 공개의 실시예에 따른 로봇의 지도 구축 방법의 흐름도를 나타낸다.
도 2는 본 공개의 예시적 실시예에 따른 로봇의 지도 구축 방법의 흐름도를 나타낸다.
도 3 내지 도 6은 본 공개의 예시적 실시예에 따른 로봇이 작업 영역을 탐색하는 개략도를 나타낸다.
도 7은 본 공개의 실시예에 따른 지도를 반복적으로 업데이트하는 흐름도를 나타낸다.
도 8은 본 공개의 실시예에 따른 로봇의 위치 추적 방법의 흐름도를 나타낸다.
도 9는 본 공개의 실시예에 따른 로봇의 블록도를 나타낸다.
도 10은 본 공개의 예시적 실시예의 컴퓨터 판독 가능한 저장 매체의 개략도를 나타낸다.
도면을 참고하여 예시적 실시 형태를 더욱 상세하게 설명할 것이다. 그러나, 예시적 실시 형태는 다양하게 실시될 수 있으며, 여기에서 설명된 범례에 한정되는 것으로 이해해서는 안 된다. 오히려, 이러한 실시 형태는 본 공개가 더욱 완전하도록 하고, 예시적 실시 형태의 사상을 해당 분야의 기술자에게 완전하게 전달하기 위해 제공하는 것이다. 설명한 특징, 구조 또는 특성은 임의의 적합한 방식으로 하나 이상의 실시 형태에 결합될 수 있다.
또한, 도면은 단지 본 공개의 예시일 뿐, 반드시 비율에 따라 그려진 것은 아니다. 도면에서 동일한 도면 부호는 동일하거나 유사한 부분을 나타내므로, 이에 대한 중복 설명을 생략한다. 도면에 나타낸 일부 블록도는 기능적 실체이며, 반드시 물리적 또는 논리적으로 독립된 실체와 서로 대응하는 것은 아니다. 소프트웨어 형태로 이러한 기능적 실체를 실현하거나 또는 하나 이상의 하드웨어 모듈 또는 집적회로에서 이러한 기능적 실체를 실현하거나, 또는 서로 다른 네트워크 및/또는 프로세서 장치 및/또는 마이크로 제어 장치에서 이러한 기능적 실체를 실현할 수 있다.
관련 기술에서의 로봇의 위치 추적 및 지도 구축 방법은 모든 환경에 적용될 수 없으며, 또한 소비 전력이 크고, 원가가 높으며, 획득하는 정보량이 적어, 로봇에서의 인공 지능의 응용에 한계가 있다.
상기 관련 기술에 존재하는 문제점을 극복하기 위해, 본 공개는 로봇 및 지도 구축 방법, 위치 추적 방법, 전자 장치, 저장 매체를 제공하고, 자발적인 신호를 필요로 하지 않고 수동적 시각 센서를 이용하여 지도 구축을 구현하며, 시각 센서는 소비 전력이 작고, 원가가 낮으며, 또한 획득하는 정보량이 커서, 지능형 로봇의 지도 구축을 최적화한다.
먼저 도 1을 참고하면, 도 1은 본 공개의 실시예에 따른 로봇의 지도 구축 방법의 흐름도를 나타낸다.
도 1은 하나의 단계를 나타냈다.
단계 S110: 로봇이 소정의 규칙에 따라 작업 영역을 탐색하도록 하고, 상기 로봇이 탐색 과정에서 실시간으로 수집한 장면 이미지에 따라 초기 지도를 구축하고, 상기 초기 지도는 제1 지도 및 제2 지도를 포함하고, 상기 제1 지도는 작업 영역과 지도 좌표계의 맵핑을 포함하고, 상기 제2 지도는 상기 장면 이미지를 수집할 때의 상기 로봇의 위치 자세와 관련지어 저장된 상기 수집한 장면 이미지를 기반으로 추출된 장면 특징, 상기 장면 특징의 기하학적 량, 및 상기 장면 특징을 추출하는 장면 이미지를 포함하고, 상기 위치 자세는 제1 지도에서의 상기 로봇의 좌표 및 방향을 포함하고, 상기 장면 특징은 장면 중의 특징 물체의 특징 및/또는 상기 장면 이미지의 특징을 포함한다.
종래 기술과 비교하면, 본 공개에서 제공하는 로봇의 지도 구축 방법은 아래와 같은 장점을 가진다
1) 자발적인 신호를 필요로 하지 않고 수동적 시각 센서를 이용하여 지도의 구축을 구현하며, 시각 센서는 소비전력이 작고, 원가가 낮으며, 획득하는 정보량이 커서, 지능형 로봇의 지도 구축을 최적화한다.
2) 본 공개의 지도 구축 방법은 제1 지도 및 제2 지도를 포함하는 초기 지도를 구축하고, 제2 지도인 장면 지도를 통해 로봇에 더 많은 정보를 제공할 수 있다.
본 공개의 각 실시예에서, 상기 제1 지도는 구조 및 물체 사이의 상호 관계 데이터 구조를 설명하기 위한 것이다. 제1 지도는 로봇의 경로를 계획하는데 사용될 수 있다. 상기 제1 지도는 지도 좌표계(MC)를 이용하여 작업 영역 내의 하나의 구체적인 위치를 나타내고, 지도 좌표계(MC)는 2차원 또는 3차원 좌표계일 수 있다. 제1 지도의 어느 지점에서의 로봇의 위치 자세는 로봇의 지도 좌표계에서의 해당 지점의 좌표(P) 및 그 방향(r)으로 구성된다.
Figure 112020127486420-pct00001
여기서, P는 차원이 지도 좌표계의 차원에 따라 정해지는 벡터이며, r은 차원이 P보다 1이 감산된 벡터이다. 예를 들면, 지도 좌표계는 3차원 좌표계이며, P는 3차원 벡터이고, r은 2차원 벡터이며, 지도 좌표계가 2차원 좌표계이고, P는 2차원 벡터이며, r은 1차원 벡터이다.
제2 지도는 제1 지도를 기초로, 어느 특정한 위치에서 장면 및 기하학적으로 설명되는 데이터 구조를 가진다. 제2 지도는 로봇으로 하여금 장면 지도에서 자신이 어느 위치에 있는지 언제든지 알 수 있도록 하고, 로봇이 지도 내용을 업데이트하도록 도움을 줄 수도 있다. 제2 지도는 하나의 맵핑으로 나타낼 수 있다.
Figure 112020127486420-pct00002
여기서, L은 로봇의 위치 자세이며, I는 로봇이 상기 위치 자세로 촬영한 이미지이고, I는 본문에서 장면 이미지로도 불리며, G와 S는 각각 상기 장면 이미지로부터 추출한 장면 특징 및 상기 장면 특징의 기하학적 량을 나타내고, SM은 장면 이미지, 장면 특징 및 상기 장면 특징의 기하학적 량을 로봇의 위치 자세로 변환하는 변환 함수이다.
일부 실시예에서, 장면 특징은 이미지 중의 특징 물체에 따라 추출할 수 있다. 장면 특징의 기하학적 량은 예를 들면 장면 특징에 의해 나타내는 특징 물체의 점, 선, 면의 기하학적 특징일 수 있다. 기하학적 량의 정의 및 그 정밀도는 서로 다른 응용 요구에 따라 변할 수 있다. 상기 실시예에서, 상기 로봇이 소정의 규칙에 따라 작업 영역을 탐색할 때, 수집된 이미지에 따라 상기 작업 영역 내의 특징 물체가 인식되면, 상기 제1 지도의 좌표계에 따라, 상기 로봇과 상기 특징 물체 사이의 거리를 결정한다. 상기 거리가 소정의 거리에 부합하면, 상기 로봇이 현재 실시간으로 수집한 이미지를 장면 이미지로 하여, 장면 이미지를 기반으로 상기 장면 특징을 추출한다. 일 실시 형태에 따르면, 추출된 장면 특징이 고정 불변의 장면이면, 인식해야 할 특징 물체는 일반적으로 작업 영역에서 고정 위치를 갖는 특징 물체이다. 특징 물체는 미리 설정된 특징 물체 집합에 따라 규정될 수 있다. 일부 변형예에서, 특징 물체는 복수의 로봇이 작업 과정에서 수집한 이미지에 따라, 기계 학습에 의해 결정될 수도 있으며, 본 공개는 이에 한정되지 않는다. 추가적으로, 상술한 소정의 거리를 이용하여, 특징 추출의 효율 및 특징 추출의 정확도를 향상시킬 수 있다. 소정의 거리는 사전에 설정되거나 또는 로봇의 작업 상태에 따라 변할 수 있다. 다른 일부 변형예에서, 장면 특징은 특징 물체의 특징에 한정되지 않으며, 장면 이미지의 특징일 수도 있다. 당업자는 다양한 변형예를 구현할 수 있으므로, 여기서는 해당 설명을 생략한다.
추가적으로, 상술한 바와 같이, 상기 로봇의 제1 지도에서의 좌표 및 방향을 상기 로봇의 위치 자세로 한다. 상기 단계 S110에서 상기 로봇이 소정의 규칙에 따라 작업 영역을 탐색하고, 상기 로봇이 탐색 과정에서 실시간으로 수집한 이미지에 따라 초기 지도를 구축하는 단계는, 제2 지도에서의 장면 특징, 상기 장면 특징에 대응하는 기하학적 량 및 상기 장면 특징을 추출하는 장면 이미지를, 상기 로봇이 상기 장면 이미지를 수집할 때의 위치 자세와 관련지어 장면 데이터 베이스에 저장하는 단계를 포함할 수 있다. 상기 장면 특징은 장면 중의 특징 물체의 특징 및/또는 상기 장면 이미지의 특징을 포함할 수 있으므로, 상기 장면 특징이 장면 중의 특징 물체의 특징을 포함하는 경우, 상기 단계는 위치 자세를 조회하기 위해, 수집된 이미지에 따라 인식된 상기 작업 영역 내의 특징 물체를 상기 로봇이 상기 이미지를 수집할 때의 위치 자세와 관련지어 장면 데이터 베이스에 저장하는 것에 해당한다. 상기 실시예에서, 장면 데이터 베이스에 상기 로봇이 장면 이미지(예를 들면 특징 물체를 포함)를 수집할 때의 위치 자세와, 제2 지도에서의 장면 특징(예를 들면 특징 물체의 특징을 포함), 상기 장면 특징에 대응하는 기하학적 량 및 상기 장면 특징을 추출하는 장면 이미지의 맵핑 관계를 저장한다. 즉, 본 실시예에서, 장면 데이터 베이스는 단계 S110에서의 제2 지도이다.
상기 실시예의 하나의 구현에서, 상기 위치 자세 조회는, 상기 로봇이 실시간 수집한 이미지의 장면 특징(즉 장면 특징의 하나)과 상기 장면 데이터 베이스에 저장된 장면 특징을 매칭시켜, 매칭된 장면 특징과 상기 로봇이 실시간으로 수집한 이미지 장면(즉 장면 특징의 하나)을 비교하는 것에 의해 상기 로봇의 실시간 위치 자세와 상기 로봇의 상기 장면 이미지를 수집할 때의 위치 자세의 차이를 결정하여, 상기 로봇의 상기 장면 이미지를 수집할 때의 위치 자세를 기반으로 상기 로봇의 실시간 위치 자세를 결정하는 것을 포함한다.
즉, 장면 특징 및 상기 로봇이 실시간으로 수집한 이미지의 이미지 특징(즉 장면 특징의 하나)을 비교하는 것에 의해, 상기 로봇이 수집한 장면 이미지와 로봇이 실시간으로 수집한 이미지의 상대적 위치를 결정하고, 이를 통해, 저장된 상기 로봇의 상기 장면 이미지를 수집할 때의 위치 자세와 결정된 상대적 위치에 따라, 로봇의 실시간 위치 자세를 결정할 수 있다. 추가적으로, 상기 위치 자세 조회 단계는 일부 예시적 구현에서 아래의 지도 업데이트에서 정확한 위치 자세를 결정하는 알고리즘을 이용할 수 있다. 본 공개는 이에 한정되지 않는다.
상기 장면 특징이 특징 물체의 특징을 포함하는 경우, 상기 위치 자세 조회는, 상기 로봇이 실시간 수집한 이미지 중의 특징 물체와 상기 장면 데이터 베이스에 저장된 특징 물체를 매칭시켜, 매칭된 특징 물체와 상기 로봇이 실시간으로 수집한 이미지 중의 특징 물체를 비교하는 것에 의해 상기 로봇의 실시간 위치 자세와 상기 로봇이 상기 특징 물체를 수집할 때의 위치 자세의 차이를 결정하여, 상기 장면 데이터 베이스에 저장된 상기 로봇의 상기 특징 물체를 수집할 때의 위치 자세를 기반으로 상기 로봇의 실시간 위치 자세를 결정하는 것을 포함한다.
즉, 특징 물체와 상기 로봇이 실시간으로 수집한 이미지 중의 특징 물체를 비교하는 것에 의해, 특징 물체를 수집하는 상기 로봇과 실시간 특징 물체를 수집하는 로봇의 상대적 위치를 결정하고, 이를 통해 저장된 상기 로봇의 상기 특징 물체를 수집할 때의 위치 자세와 결정된 상대적 위치에 따라, 로봇의 실시간 위치 자세를 결정할 수 있다. 예를 들면, 특징 물체, 즉 로봇의 충전 폴을 세계 좌표계의 원점으로 하여, 로봇이 실시간으로 수집한 이미지 중의 충전 폴을 확인하는 것으로, 로봇의 초기 지도에서의 위치 자세를 조회한다.
이상은 단지 본 공개의 위치 자세 조회의 여러 구현 형태를 예시적으로 설명할 것일 뿐, 본 공개는 이에 한정되지 않는다.
이하, 도 2, 도3 내지 도6을 결합하여 본 공개에 따른 로봇의 지도 구축 방법을 설명한다. 도 2는 본 공개의 예시적 실시예에 따른 로봇의 지도 구축 방법의 흐름도를 나타낸다. 도3 내지 도6은 본 공개의 예시적 실시예에 따른 로봇이 작업 영역을 탐색하는 개략도를 나타낸다.
도 2에 도시한 바와 같이, 단계S110에서 상기 로봇이 소정의 규칙에 따라 작업 영역을 탐색하고, 상기 로봇이 탐색 과정에서 실시간으로 수집한 이미지에 따라 초기 지도를 구축하는 단계는 아래와 같은 단계들을 포함할 수 있다.
단계 S111: 상기 로봇(201)이 상기 작업 영역(210)의 경계(211)를 따라 주행하도록 하여, 윤곽 지도(221)를 구축한다.
단계 S112: 상기 로봇(201)이 상기 윤곽 지도(221)를 기반으로, 상기 윤곽 지도 내의 탐색 경로를 계획하고, 상기 탐색 경로에 따라 주행하도록 하여, 내부 지도(222)를 구축한다.
단계 S113: 상기 윤곽 지도(221) 및 상기 내부 지도(222)를 상기 초기 지도로 구성한다.
상기 단계 S111 내지 단계 S113은 도3 및 도6을 참고할 수 있다. 설명해야 할 점은, 윤곽 지도(221) 및 내부 지도(222)는 모두 상기 제1 지도와 제2 지도를 포함한다. 윤곽 지도(221) 및 내부 지도(222)는 초기 지도의 영역 정보 및 경로 정보를 각각 나타낸다. 제1 지도 및 제2 지도는 초기 지도의 좌표 위치 파라미터 및 상응하는 장면 특징 정보를 각각 나타낸다.
하나의 예시적 실시예에서, 상기 단계S111에서의 상기 로봇(201)이 상기 작업 영역(210)의 경계(211)를 따라 주행하여, 윤곽 지도(221)를 구축하도록 하는 단계는, 상기 로봇(201)이 장면 이미지를 수집하는 방향을 순방향으로 하여, 상기 로봇(201)이 순방향에 따라 주행하는 단계; 상기 로봇(201)이 장애 대상을 인식하면, 상기 로봇(201)이 상기 장애 대상의 경계를 따라 주행하도록 상기 순방향에 따른 주행을 전환하는 단계를 더 포함한다. 상기 로봇(201)에 의해 인식된 장애 대상은 예를 들면 이미지 인식 또는 기타 센서의 데이터 인식에 의해 인식될 수 있으며, 본 공개는 이에 한정되지 않는다. 도4에 도시한 바와 같이, 로봇(201)이 작업 영역 내의 임의의 위치에 위치하면, 로봇(201)을 먼저 순방향(이미지를 수집하는 방향)으로 주행시키고, 로봇(201)이 벽(241, 장애 대상)에 부딪치면, 상기 로봇(201)이 상기 벽(241, 장애 대상)의 경계를 따라 주행하도록 상기 순방향에 따른 주행을 전환하여, 윤곽 지도(221)를 구축한다. 본 실시예에서, 상기 장애 대상의 경계를 따라 주행하도록 상기 순방향에 따른 주행을 전환하는 것은, 우선적으로 상기 로봇이 좌회전하도록 한다(일부 변형예에서, 로봇이 우회전할 수 있도록 한다).
일부 예시적 실시예에서, 작업 영역 내 장애물이 존재하는 경우를 고려하면, 상기 단계에서 상기 로봇이 장애 대상을 인식하면, 상기 로봇(201)의 현재 위치를 제1 위치(230, 231)로 결정하고, 상기 로봇(201)이 상기 장애 대상의 경계를 따라 주행하는 단계는, 상기 로봇이 상기 제1 위치(230, 231)로 다시 주행하면, 상기 로봇은 장애 대상이 상기 작업 영역 내의 장애물(242) 또는 상기 작업 영역의 경계(예를 들면 벽(241))인 것으로 판단하는 단계를 더 포함한다. 상기 장애 대상이 상기 작업 영역 내의 장애물(242)인 경우, 상기 로봇(201)이 상기 순방향에 따라 주행하도록 상기 장애 대상의 경계를 따른 주행을 전환한다. 상기 장애 대상이 상기 작업 영역의 경계(예를 들면 벽(241))인 경우, 상기 로봇(201)은 작업 영역의 경계 주행이 완료된 것으로 결정한다.
상기 단계는 도 5를 참고할 수 있으며, 로봇(201)이 초기에 작업 영역 내의 임의 위치에 위치하면, 로봇(201)을 먼저 순반향(이미지를 수집하는 방향)을 따라 주행시키고, 로봇(201)이 장애물(242)에 부딪치면, 상기 로봇(201)의 현재 위치를 제1 위치(231)로 결정하고, 상기 로봇(201)이 상기 장애물(242)의 경계를 따라 주행(즉 장애물(242)를 돌면서 한 바퀴 주행)하도록 상기 순방향에 따른 주행을 전환한다. 상기 로봇이 장애물(242)을 돌면서 한 바퀴 주행하여 다시 상기 제1 위치(231)로 주행하면, 상기 로봇은 상기 장애 대상이 상기 작업 영역 내의 장애물(242)인 것으로 판단하고, 상기 로봇(201)이 상기 순방향에 따라 주행하도록 상기 장애 대상의 경계를 따른 주행을 전환한다. 한편, 로봇(201)이 상기 순방향으로 주행하여, 상기 작업 영역의 경계(예를 들면 벽(241))에 부딪치면, 상기 로봇(201)의 현재 위치를 제1 위치(230)로 결정하고, 상기 로봇(201)이 상기 작업 영역의 경계(예를 들면 벽(241))를 따라 주행(즉 벽(241)을 따라 한 바퀴 주행)하도록 상기 순방향에 따른 주행을 전환한다. 상기 로봇이 벽(241)을 따라 한 바퀴 주행하여 다시 상기 제1 위치(230)로 주행하면, 상기 로봇은 상기 장애 대상이 상기 작업 영역의 경계(예를 들면 벽(241))인 것으로 판단하고, 상기 로봇(201)은 상기 작업 영역의 경계 주행이 완료된 것으로 결정한다. 작업 영역 내에 복수의 장애물이 있는 경우에도 상기 단계에 따라 실행하여, 로봇(201)을 상기 작업 영역(201)의 경계(221)를 따라 주행시킬 수 있다.
상기 판단에 의해, 로봇이 작업 영역의 경계를 탐색하도록 하여, 작업 영역 내의 장애물을 작업 영역의 경계로 하지 않도록 보장할 수 있다.
일부 실시예에서, 상기 단계에서의 로봇(201)의 주행 경로를 상기 작업 영역(201)의 경계(211)로 할 수 있다. 다른 일부 실시예에서, 상기 단계에서의 로봇(201)의 주행 경로에서 일부 경로를 취하여 상기 작업 영역(210)의 경계(211)로 할 수 있다. 예를 들면, 로봇(201)이 상기 장애 대상의 경계를 따라 주행하는 모드에서의, 로봇(201)의 주행 경로만 상기 작업 영역(210)의 경계(211)로 보존하거나; 또는 로봇(201)이 벽(241)을 따라 주행하는 모드에서의, 로봇(201)의 주행 경로만 상기 작업 영역(210)의 경계(211)로 보존할 수 있다. 본 공개는 더욱 다양한 변형예로 구현할 수 있으며, 여기서 설명은 생략한다.
추가적으로, 상기 단계 S110에서 상기 로봇이 소정의 규칙에 따라 작업 영역을 탐색하고, 상기 로봇이 탐색 과정에서 실시간으로 수집한 이미지에 따라 초기 지도를 구축하는 단계 이후, 상기 로봇이 상기 작업 영역에서 작업할 때 실시간으로 수집한 이미지를 기반으로 초기 지도를 반복적으로 업데이트하는 단계를 포함한다. 상기 로봇이 상기 작업 영역에서 작업할 때 실시간으로 수집한 이미지를 기반으로 초기 지도를 반복적으로 업데이트하는 단계는 도 7을 참고할 수 있으며, 도 7은 본 공개의 실시예에 따른 지도를 반복적으로 업데이트하는 흐름도를 나타낸다. 도 7은 4단계를 나타냈다.
단계 S121: 상기 로봇이 실시간으로 수집한 이미지에 따라 상기 장면 데이터 베이스에서 추정 위치 자세를 매칭시킨다.
일부 실시예에 따르면, 상기 단계는 아래 공식으로 나타낼 수 있다.
Figure 112020127486420-pct00003
여기서, 상기 공식은, 시간t에 촬영된 이미지(상기 로봇이 실시간으로 수집한 이미지I)가 주어지면, 시간t에서의 장면 특징에 대응하는 기하학적 량으로 구성된 기하학 데이터 베이스G t (특징 점, 선, 면 등의 기하학적 설명, 예를 들면 좌표, 방향 등) 및 장면 특징으로 구성된 장면 데이터 베이스S t 에 의해 로봇의 상기 시간에서의 추정 위치 자세
Figure 112020127486420-pct00004
를 얻음을 의미한다. 이러한 과정은 아래 몇 단계를 포함할 수 있다.
단계1: 이미지I에서 기하학적 특징 집합{F}을 추출한다.
단계2: 상기 집합을 이용하여 S t 에서 I와 가장 매칭되는 이미지 인덱스{k}를 검색한다.
단계3: G t 중 각 k에 대응하는 기하학적 특징 부분 집합{g} k 에 따라, 아래 식의 기대치를 구한다.
Figure 112020127486420-pct00005
= MI({F},{g} k ,L k )
여기서, MI는 리 대수SE(3)에서의 보간 함수를 나타내고, L k S t 중 이미지 인덱스k에 대응하는 로봇의 위치 자세이다.
단계 S122: 상기 로봇이 실시간으로 수집한 이미지 및 상기 추정 위치 자세에 따라 상기 로봇의 정확한 위치 자세를 결정한다.
일부 실시예에서, 상기 단계는 아래 공식으로 나타낼 수 있다.
Figure 112020127486420-pct00006
이 단계에서, 경량의 VSLAM알고리즘을 이용하여 더욱 정확한 위치 자세를 얻을 수 있다.
Figure 112020127486420-pct00007
은 이미 L의 좋은 추정치이므로,
Figure 112020127486420-pct00008
을 이용하여 상기 기하적 특징 집합{F}에 대해 잡음 저감 처리를 할 수 있다. 특히, 아래 조건을 만족하는 기하 특징F f 을 "오류"라고 표시한다.
Figure 112020127486420-pct00009
여기서, E는 오차 평가 함수이고, 예를 들면 유클리드 거리이며; M은 기하학적 특징을 다른 공간에 맵핑하기 위한 맵핑 관계이고, 예를 들면 투영 변환이며,
Figure 112020127486420-pct00010
는 현재의 추정 위치 자세
Figure 112020127486420-pct00011
및 이미지로부터 기하학적 특징을 추정하기 위한 함수이고, 예를 들면 역투영 등이며, th는 소정의 임계 값이다.
일단 "오류"의 특징이 제거되면, 기타 고품질의 기하학적 특징은 비교적 간단한 SLAM 알고리즘으로 더욱 정확한 로봇의 위치 자세L를 구할 수 있도록 한다.
단계 S123: 상기 정확한 위치 자세, 상기 추정 위치 자세를 매칭시킨 장면 특징, 상기 장면 특징에 대응하는 기하학적 량, 상기 로봇이 실시간으로 수집한 이미지에 따라 업데이트 된 장면 이미지, 업데이트 된 장면 특징, 업데이트 된 장면 특징에 대응하는 기하학적 량을 결정한다.
일부 실시에에 따르면, 상기 단계는 아래 공식으로 나타낼 수 있다.
Figure 112020127486420-pct00012
이 단계에서, 로봇의 위치 자세L 및 수집된 이미지I에 의해 기하학적 데이터 베이스 G t , 장면 데이터 베이스 S t 를 업데이트하여, 업데이트된 G t +1 S t+ 1 를 얻을 수 있다. 추가적으로, 수집된 이미지I로 장면 이미지를 직접적으로 대체할 수 있다.
단계 S124: 상기 정확한 위치 자세, 업데이트된 장면 이미지, 업데이트된 장면 특징, 업데이트 된 장면 특징에 대응하는 기하학적 량에 따라, 상기 장면 데이터 베이스를 업데이트한다.
도 7를 결합하여 설명한 공정 흐름을 통해, 로봇이 작업 시 실시간으로 수집한 이미지에 의해, 제1 지도 및 제2 지도를 포함하는 초기 지도를 반복적으로 업데이트할 수 있다. 제2 지도에 포함되는 수집된 이미지를 기반으로 추출한 장면 특징 및 상기 장면 특징의 기하학적 량이든, 로봇이 작업 시 실시간으로 수집한 이미지든, 모두 작업 중인 로봇에 더 많은 정보를 제공할 수 있으므로, 지도 구축 과정에서의 잡음을 감소시켜, 수동적인 시각 센서에 의해 지도 구축을 구현하는 잡음 문제를 해결하여, 본 공개의 지도 구축 정밀도가 자발적인 신호의 지도 구축 정밀도보다 낮지 않게 한다. 그밖에, 로봇이 작업하는 동안 실시간으로 수집한 이미지는 초기 지도를 반복적으로 업데이트할 수 있으며, 이를 통해 로봇은 작업하는 동안 환경에 익숙해져, 위치 추적용 지도를 최적화하며, 또한 환경 변화를 지속적으로 검출하여, 로봇을 더 지능화한다.
이상은 단지 본 공개에서 제공하는 여러 실시 형태를 예시적으로 설명하였고, 본 공개는 이에 한정되지 않는다.
도 8에 도시한 바와 같이, 본 공개는 로봇의 위치 추적 방법을 더 제공한다. 도 8은 본 공개의 실시예에 따른 로봇의 위치 추적 방법의 흐름도를 나타낸다.
도 8은 하나의 단계를 나타냈다.
단계S310: 상술한 바와 같은 로봇의 지도 구축 방법에 의해 구축된 지도 및 상기 로봇이 실시간으로 수집한 이미지를 기반으로, 상기 로봇의 현재 위치 자세를 결정한다.
단계S310의 위치 자세 결정 방식은 예를 들면 상술한 위치 자세 조회 방식과 일치할 수 있다.
본 공개는 로봇을 추가로 제공한다. 이하 도 9를 참고하면, 도 9는 본 공개의 일 실시예에 따른 로봇의 블록도이다. 로봇(400)은 센서(410), 모터(420) 및 프로세서(430)를 포함한다.
센서(410)는 적어도 실시간으로 로봇 주변의 이미지를 수집하도록 배치되고;
모터(420)는 상기 로봇을 구동하여 이동시키도록 배치되고;
프로세서(430)는 로봇이 소정의 규칙에 따라 작업 영역을 탐색하도록 하고, 상기 로봇이 탐색 과정에서 실시간으로 수집한 장면 이미지에 따라 초기 지도를 구축하도록 배치되고, 상기 초기 지도는 제1 지도 및 제2 지도를 포함하고, 상기 제1 지도는 작업 영역과 지도 좌표계의 맵핑을 포함하고, 상기 제2 지도는 상기 장면 이미지를 수집할 때의 상기 로봇의 위치 자세와 관련지어 저장된 상기 수집한 장면 이미지를 기반으로 추출된 장면 특징, 상기 장면 특징의 기하학적 량, 및 상기 장면 특징을 추출하는 장면 이미지를 포함하고, 상기 위치 자세는 제1 지도에서의 상기 로봇의 좌표 및 방향을 포함하고, 상기 장면 특징은 장면 중의 특징 물체의 특징 및/또는 상기 장면 이미지의 특징을 포함한다.
하나의 예시적 실시예에서, 프로세서(430)는 또한 상기 로봇이 상기 작업 영역에서 작업할 때 실시간으로 수집한 이미지를 기반으로 상기 초기 지도를 반복적으로 업데이트하도록 배치된다.
하나의 예시적 실시예에서, 프로세서(430)는 또한 상기 초기 지도 또는 업데이트된 지도 및 상기 로봇이 실시간으로 수집한 이미지에 따라 상기 로봇의 현재 위치 자세를 결정하도록 배치된다.
하나의 예시적 실시예에서, 상기 로봇(400)은 청소 로봇 또는 물걸레 로봇이거나, 또는 한정된 공간 내에서 주행해야 하는 임의의 기타 로봇일 수 있다.
본 공개의 상술한 설명에서, 초기 지도는 제1 지도 및 제2 지도를 포함하고, 상기 제1 지도는 작업 영역과 지도 좌표계의 맵핑을 포함하고, 상기 제2 지도는 상기 장면 이미지를 수집할 때의 상기 로봇의 위치 자세와 관련지어 저장된 상기 수집한 장면 이미지를 기반으로 추출된 장면 특징, 상기 장면 특징의 기하학적 량, 및 상기 장면 특징을 추출하는 장면 이미지를 포함한다고 설명하였으나, 제1 지도 및 제2 지도는 별도의 2개 지도로 작성 및 저장할 필요 없이, 제1 지도 및 제2 지도는 동일한 지도로 작성 및 저장할 수도 있음을 이해해야 한다. 초기 지도에 작업 영역과 지도 좌표계의 맵핑이 포함되고, 또한 수집된 이미지를 기반으로 추출된 장면 특징 및 상기 장면 특징의 기하학적 량이 포함되기만 하면, 초기 지도는 상기 제1 지도 및 제2 지도를 포함하는 것으로 간주해야 한다.
본 공개의 예시적 실시예에서, 컴퓨터 프로그램이 저장되고 있는 컴퓨터 판독 가능한 저장 매체를 더 제공하며, 상기 컴퓨터 프로그램이 예를 들어 프로세서에 의해 실행되면 상기 임의의 하나의 실시예에서의 상기 로봇의 지도 구축 방법의 단계를 실현할 수 있다. 일부 구현 가능한 형태에서, 본 공개의 각 측면은 프로그램 코드를 포함하는 프로그램 제품 형태로 구현될 수도 있으며, 상기 프로그램 제품이 단말기에서 실행되면, 상기 프로그램 코드는 상기 단말기가 본 명세서의 상기 로봇의 지도 구축 방법 부분에서 설명된 본 공개의 각 예시적 실시 형태에 따른 단계를 실행하도록 한다.
도 10에 도시된 바를 참고하면, 본 공개의 실시 형태에 따른 상기 방법을 구현하는 프로그램 제품(900)을 설명하였고, 프로그램 제품은 휴대형 컴팩트 디스크 읽기 전용 메모리(CD-ROM)를 사용하며 프로그램 코드를 포함하고, 예를 들면 개인용 컴퓨터와 같은 단말장치에서 실행될 수 있다. 그러나, 본 공개의 프로그램 제품은 이에 한정되지 않고, 여기서 판독 가능한 저장 매체는 프로그램을 포함하거나 또는 저장하는 임의의 유형 매체일 수 있으며, 상기 프로그램은 명령 실행 시스템, 장치 또는 디바이스에 의해 사용되거나 또는 그 조합에 의해 사용될 수 있다.
상기 프로그램 제품은 하나 이상의 판독 가능한 매체의 임의의 조합을 이용할 수 있다. 판독 가능한 매체는 판독 가능한 신호 매체 또는 판독 가능한 저장 매체일 수 있다. 판독 가능한 저장 매체는 예를 들어 전기, 자기, 빛, 전자기, 적외선 또는 반도체의 시스템, 장치 또는 디바이스 또는 이들의 조합일 수 있으나, 이에 한정되지 않는다. 판독 가능한 저장 매체의 더욱 구체적인 예(비포괄적 목록)는 하나 이상의 도선을 구비한 전기적 연결, 휴대용 디스크, 하드디스크, RAM, ROM, EPRO(또는 플래시 메모리), 광섬유, CD-ROM, 광학 기억 장치, 자기 기억 장치, 또는 상기 이들의 조합을 포함한다.
상기 컴퓨터 판독 가능한 저장 매체는 기저 대역에서 또는 반송파의 일부로서 전파되는 판독 가능한 프로그램 코드를 운반하는 데이터 신호를 포함할 수 있다. 이렇게 전파되는 데이터 신호는 전자기 신호, 광 신호 또는 이들의 임의의 적절한 조합을 포함하지만 이에 한정되지 않는 다양한 형태를 취할 수 있다. 판독 가능한 저장 매체는 판독 가능한 저장 매체 이외의 임의의 판독 가능한 매체일 수도 있으며, 상기 판독 가능한 매체는 명령 실행 시스템, 장치 또는 디바이스에 의해 사용되거나 또는 그 조합에 의해 사용되는 프로그램을 발송 또는 전파 또는 전송할 수 있다. 판독 가능한 저장 매체에 포함되는 프로그램 코드는 무선, 유선, 광 케이블, RF 등등, 또는 상기 임의의 적절한 조합을 포함하나, 이에 한정되지 않는 모든 적절한 매체를 사용하여 전송할 수 있다.
본 공개의 동작을 실행하기 위한 프로그램 코드는 1종 이상의 프로그램 설계 언어의 임의의 조합에 의해 작성될 수 있고, 상기 프로그램 설계 언어는 Java, C++ 등과 같은 객체 지향 프로그램 설계 언어를 포함하고, "C" 언어 또는 유사한 프로그램 설계 언어와 같은 일반적인 절차적 프로그램 설계 언어도 포함할 수 있다. 프로그램 코드는 테넌트 컴퓨팅 장치에서 완전하게 실행되거나, 테넌트 장치에서 부분적으로 실행되거나, 하나의 독립적인 소프트웨어 패키지로서 실행되거나, 일부는 테넌트 컴퓨팅 장치에서 일부는 원격 컴퓨팅 장치에서 실행되거나 또는 원격 컴퓨텅 장치 또는 서버에서 완전하게 실행될 수 있다. 원격 컴퓨팅 장치의 경우에는, 원격 컴퓨팅 장치는 LAN, 또는 WAN을 포함하는 임의의 종류의 네트워크를 통해 테넌트 컴퓨팅 장치에 연결하거나 또는 외부 컴퓨팅 장치에 연결할 수 있다(예를 들면 인터넷 서버 제공자를 이용하여 인터넷을 통해 연결할 수 있다).
본 공개의 예시적 실시예에서, 전자 장치를 더 제공하며, 상기 전자 장치는 프로세서(예를 들면 상술한 프로세서(430)) 및 상기 프로세서의 실행 가능한 명령이 저장된 메모리를 포함할 수 있다. 상기 프로세서는 상기 실행 가능한 명령을 실행함으로써 상기 임의의 하나의 실시예의 상기 로봇의 지도 구축 방법의 단계를 실행하도록 구성된다.
본 공개의 각 측면은 시스템, 방법 또는 프로그램 제품으로 실현될 수 있음을 당업자라면 이해할 수 있다. 따라서, 본 공개의 각 측면은 예를 들면 완전한 하드웨어 실시 형태, 완전한 소프트웨어 실시 형태(펌웨어, 마이크로 코드 등을 포함), 또는 하드웨어 및 소프트웨어가 결합된 실시 형태로 실현될 수 있으며, 여기서 "회로", "모듈", "시스템"으로 통칭될 수 있다.
이하, 도 11을 참고하여 본 공개의 실시 형태에 따른 전자 장치(1000)를 설명한다. 도 11에 도시된 전자 장치(1000)는 예시일 뿐, 본 공개의 실시예의 기능 및 사용 범위를 한정하는 것이 아니다.
도 11에 도시한 바와 같이, 전자 장치(1000)는 범용 계산 장치의 형태로 표현된다. 전자 장치(1000)의 어셈블리는 적어도 하나의 처리부(1010), 적어도 하나의 메모리부(1020), 서로 다른 시스템 어셈블리(메모리부(1020)과 처리부(1010, 예를 들어 상기 프로세서(430))를 포함)를 연결하는 버스(1030) 등을 포함하나, 이에 한정되지 않는다.
여기서, 상기 메모리부에 프로그램 코드가 저장되어 있고, 상기 프로그램 코드는 상기 처리부(1010)에 의해 실행되어, 상기 처리부(1010)가 본 명세서의 상기 로봇의 지도 구축 방법 부분에 설명된 본 공개의 각종 예시적 실시 형태에 따른 단계를 실행할 수 있도록 한다. 예를 들면, 상기 처리부(1010)는 도 1에 도시한 단계를 실행할 수 있다.
상기 메모리부(1020)는 예를 들면 RAM(1020) 및/또는 캐시 메모리부(10202)인 휘발성 메모리부 형태의 판독 가능한 매체를 포함할 수 있으며, 또한 추가적으로 ROM(10203)을 포함할 수 있다.
상기 메모리부(1020)는 또한 한 세트(적어도 하나)의 프로그램 모듈(10205)을 구비한 프로그램/유틸리티 도구(10204)를 포함할 수 있으며, 이러한 프로그램 모듈(10205)은 운영 시스템, 하나 이상의 응용 프로그램, 기타 프로그램 모듈 및 프로그램 데이트를 포함하나, 이에 한정되지 않으며, 이러한 예시 중 하나 또는 어느 조합에 네트워크 환경에 의한 구현이 포함될 수 있다.
버스(1030)는 스토리지 버스 또는 스토리지 컨트롤러, 주변 버스, 그래픽 가속 포트, 처리부 또는 다양한 버스 구조 중의 임의의 버스 구조를 사용하는 로컬 버스를 포함하는 다양한 버스 구조 중의 하나 이상으로 나타낼 수 있다.
전자 장치(1000)는 하나 이상의 외부 장치(1100, 예를 들면 키보드, 포인팅 장치, 블루투스 장치 등)와 통신할 수도 있고, 테넌트가 전자 장치(1000)와 상호 작용할 수 있도록 하는 하나 이상의 장치와 통신할 수도 있으며, 및/또는 상기 전자 장치(1000)가 하나 이상의 기타 컴퓨터 장치와 통신할 수 있도록 하는 임의의 장치(예를 들면 라우터, 모뎀 등)와 통신할 수도 있다. 이러한 통신은 입력/출력(I/O) 인터페이스(1050)를 통해 진행될 수 있다. 전자 장치(1000)는 또한 네트워크 어댑터(1060)를 통해 하나 이상의 네트워크(예를 들면 로컬 영역 네트워크(LAN), WAN 및/또는 인터넷과 같은 공용 네트워크)와 통신할 수 있다. 네트워크 어댑터(1060)는 버스(1030)를 통해 전자 장치(1000)의 기타 모듈과 통신할 수 있다. 명백히 해야 할 점은, 도면에 도시하지 않았지만, 전자 장치(1000)와 함께 기타 하드웨어 및 소프트 모듈을 사용할 수 있으며, 마이크로 코드, 장치 드라이버, 중복 처리 장치, 외부 디스크 드라이브 어레이, RAID시스템, 테이프 드라이브 및 데이터 백업 저장 시스템을 포함하나, 이에 한정되지 않는다.
이상의 실시 형태에 대한 설명을 통해, 여기서 설명한 예시적 실시 형태는 소프트웨어에 의해 구현 가능하며, 또한 소프트웨어에 필요한 하드웨어를 결합하는 방식을 통해 구현될 수 있음을 당업자라면 쉽게 이해할 수 있다. 따라서, 본 공개의 실시 형태에 따른 기술방안은 소프트웨어 제품의 형태로 구현될 수 있으며, 상기 소프트웨어 제품은 하나의 비휘발성 저장 매체(CD-ROM, U디스크, 모바일 하드 디스크 등) 또는 네트워크에 저장될 수 있으며, 하나의 컴퓨터 장비(개인용 컴퓨터, 서버, 또는 네트워크 장치 등)가 본 공개의 실시 형태에 따른 상기 로봇의 지도 구축 방법을 실행하도록 복수의 명령을 포함한다.
명세서를 감안하여 여기서 공개된 내용을 실시하면, 본 공개의 기타 실시 형태를 당업자는 쉽게 생각할 수 있다. 본 출원은 본 공개의 임의의 변형, 용도 또는 응용적 변화를 포함하기 위한 것이며, 이러한 변형, 용도 또는 응용적 변화는 본 공개의 일반적 원리를 따르고 본 공개에서 공개하지 않은 해당 기술 분야에서의 공지상식 또는 관용적 기술 수단을 포함한다. 명세서 및 실시예는 단지 예시적인 것일 뿐, 본 공개의 진정한 범위 및 정신은 첨부된 청구범위에 의해 제시된다.

Claims (16)

  1. 로봇이 소정의 규칙에 따라 작업 영역을 탐색하도록 하고, 상기 로봇이 탐색 과정에서 실시간으로 수집한 장면 이미지에 따라 초기 지도를 구축하는 단계를 포함하고,
    상기 초기 지도는 제1 지도 및 제2 지도를 포함하고, 상기 제1 지도는 작업 영역과 지도 좌표계의 맵핑을 포함하고, 상기 제2 지도는 상기 장면 이미지를 수집할 때의 상기 로봇의 위치 자세와 관련지어 장면 데이터 베이스에 저장된 상기 수집한 장면 이미지를 기반으로 추출된 장면 특징, 상기 장면 특징의 기하학적 량, 및 상기 장면 특징을 추출하는 장면 이미지를 포함하고, 상기 위치 자세는 제1 지도에서의 상기 로봇의 좌표 및 방향을 포함하고, 상기 장면 특징은 장면 중의 특징 물체의 특징 및/또는 상기 장면 이미지의 특징을 포함하고,
    상기 로봇이 실시간으로 수집한 이미지에 따라 상기 장면 데이터 베이스에서 추정 위치 자세를 매칭시키는 단계;
    상기 로봇이 실시간으로 수집한 이미지 및 상기 추정 위치 자세에 따라 상기 로봇의 정확한 위치 자세를 결정하는 단계;
    상기 정확한 위치 자세, 상기 추정 위치 자세를 매칭시킨 장면 특징, 상기 장면 특징에 대응하는 기하학적 량, 상기 로봇이 실시간으로 수집한 이미지에 따라 업데이트된 장면 이미지, 업데이트된 장면 특징, 업데이트된 장면 특징에 대응하는 기하학적 량을 결정하는 단계; 및
    상기 정확한 위치 자세, 업데이트된 장면 이미지, 업데이트된 장면 특징, 업데이트된 장면 특징에 대응하는 기하학적 량에 따라, 상기 장면 데이터 베이스를 업데이트하는 단계를 포함하는,
    컴퓨터 구현 방법.
  2. 제1항에 있어서,
    상기 로봇이 소정의 규칙에 따라 작업 영역을 탐색하도록 하고, 상기 로봇이 탐색 과정에서 실시간으로 수집한 장면 이미지에 따라 초기 지도를 구축하는 단계는,
    상기 로봇이 상기 작업 영역의 경계를 따라 주행하도록 하여, 윤곽 지도를 구축하는 단계;
    상기 로봇이 상기 윤곽 지도를 기반으로, 상기 윤곽 지도 내의 탐색 경로를 계획하고, 상기 탐색 경로에 따라 주행하도록 하여, 내부 지도를 구축하는 단계; 및
    상기 윤곽 지도 및 상기 내부 지도를 상기 초기 지도로 구축하는 단계
    를 더 포함하는, 컴퓨터 구현 방법.
  3. 제2항에 있어서,
    상기 로봇이 상기 작업 영역의 경계를 따라 주행하도록 하는 단계는,
    상기 로봇이 장면 이미지를 수집하는 방향을 순방향으로 하여, 상기 로봇이 순방향에 따라 주행하도록 하는 단계;
    상기 로봇이 장애 대상을 인식하면, 상기 로봇이 상기 장애 대상의 경계를 따라 주행하도록 상기 순방향에 따른 주행을 전환하는 단계
    를 더 포함하는, 컴퓨터 구현 방법.
  4. 제3항에 있어서,
    상기 로봇이 장애 대상을 인식하면, 상기 로봇의 현재 위치를 제1 위치로 결정하고, 상기 로봇이 상기 장애 대상의 경계를 따라 주행하도록 하는 단계는,
    상기 로봇이 상기 제1 위치로 다시 주행하면, 상기 장애 대상이 상기 작업 영역 내의 장애물 또는 상기 작업 영역의 경계인 것으로 판단하는 단계;
    상기 장애 대상이 상기 작업 영역 내의 장애물인 경우, 상기 로봇이 상기 순방향에 따라 주행하도록 상기 장애 대상의 경계를 따른 주행을 전환하는 단계;
    상기 장애 대상이 상기 작업 영역의 경계인 경우, 상기 작업 영역의 경계 주행이 완료된 것으로 판단하는 단계
    를 포함하는, 컴퓨터 구현 방법.
  5. 제1항에 있어서,
    상기 로봇이 소정의 규칙에 따라 작업 영역을 탐색할 때, 상기 수집된 이미지에 따라 상기 작업 영역 내의 특징 물체가 인식되면, 상기 제1 지도의 지도 좌표계에 따라, 상기 로봇과 상기 특징 물체 사이의 거리를 결정하고, 상기 거리가 소정의 거리에 부합하면, 상기 로봇이 현재 실시간으로 수집한 이미지를 장면 이미지로 하여, 장면 이미지를 기반으로 상기 장면 특징을 추출하는,
    컴퓨터 구현 방법.
  6. 제1항에 있어서,
    상기 초기 지도는 위치 자세 조회에 사용되며,
    상기 위치 자세 조회는,
    상기 로봇이 실시간 수집한 이미지의 장면 특징과 상기 장면 데이터 베이스에 저장된 장면 특징을 매칭시키고, 매칭된 장면 특징과 상기 로봇이 실시간으로 수집한 이미지의 장면 특징을 비교하는 것에 의해 상기 로봇의 실시간 위치 자세와 상기 로봇의 상기 장면 이미지를 수집할 때의 위치 자세의 차이를 결정하여, 상기 로봇의 상기 장면 이미지를 수집할 때의 위치 자세를 기반으로 상기 로봇의 실시간 위치 자세를 결정하는 것을 포함하는,
    컴퓨터 구현 방법.
  7. 제1항 내지 제6항 중 어느 한 항의 방법에 의해 구축된 지도 및 상기 로봇이 실시간으로 수집한 이미지를 기반으로, 상기 로봇의 현재 위치 자세를 결정하는 단계를 포함하는 하는, 컴퓨터 구현 방법.
  8. 제7항에 있어서,
    상기 로봇의 현재 위치 자세를 결정하는 단계는,
    상기 로봇이 실시간으로 수집한 이미지의 장면 특징을 상기 장면 데이터 베이스에 저장된 장면 특징과 매칭시키고, 매칭된 장면 특징에 따라 상기 로봇이 실시간으로 수집한 이미지의 장면 특징을 비교하는 것에 의해 상기 로봇의 실시간 위치 자세 및 상기 로봇의 상기 장면 이미지를 수집할 때의 위치 자세의 차이를 결정하여, 상기 로봇의 상기 장면 이미지를 수집할 때의 위치 자세를 기반으로 상기 로봇의 실시간 위치 자세를 결정하는 단계를 포함하는,
    컴퓨터 구현 방법.
  9. 적어도 실시간으로 로봇 주변의 이미지를 수집하도록 배치되는 센서;
    상기 로봇을 구동하여 이동시키도록 배치되는 모터;
    로봇이 소정의 규칙에 따라 작업 영역을 탐색하도록 하고, 로봇이 탐색 과정에서 실시간으로 수집한 장면 이미지에 따라 초기 지도를 구축하도록 배치되는 프로세서를 포함하고,
    상기 초기 지도는 제1 지도 및 제2 지도를 포함하고, 상기 제1 지도는 작업 영역과 지도 좌표계의 맵핑을 포함하고, 상기 제2 지도는 상기 장면 이미지를 수집할 때의 상기 로봇의 위치 자세와 관련지어 장면 데이터베이스에 저장된 상기 수집한 장면 이미지를 기반으로 추출된 장면 특징, 상기 장면 특징의 기하학적 량, 및 상기 장면 특징을 추출하는 장면 이미지를 포함하고, 상기 위치 자세는 제1 지도에서의 상기 로봇의 좌표 및 방향을 포함하고, 상기 장면 특징은 장면 중의 특징 물체의 특징 및/또는 상기 장면 이미지의 특징을 포함하고;
    상기 로봇이 실시간으로 수집한 이미지에 따라 상기 장면 데이터 베이스에서 추정 위치 자세를 매칭시키고;
    상기 로봇이 실시간으로 수집한 이미지 및 상기 추정 위치 자세에 따라 상기 로봇의 정확한 위치 자세를 결정하고;
    상기 정확한 위치 자세, 상기 추정 위치 자세를 매칭시킨 장면 특징, 상기 장면 특징에 대응하는 기하학적 량, 상기 로봇이 실시간으로 수집한 이미지에 따라 업데이트된 장면 이미지, 업데이트된 장면 특징, 업데이트된 장면 특징에 대응하는 기하학적 량을 결정하고;
    상기 정확한 위치 자세, 업데이트된 장면 이미지, 업데이트된 장면 특징, 업데이트된 장면 특징에 대응하는 기하학적 량에 따라, 상기 장면 데이터 베이스를 업데이트하는, 로봇.
  10. 제9항에 있어서,
    상기 프로세서는 또한 상기 초기 지도 또는 업데이트된 지도 및 상기 로봇이 실시간으로 수집한 이미지에 따라 상기 로봇의 현재 위치 자세를 결정하도록 배치되는,
    로봇.
  11. 제9항 내지 제10항 중 어느 한 항에 있어서,
    상기 로봇은 청소 로봇 또는 물걸레 로봇인, 로봇.
  12. 프로세서;
    컴퓨터 프로그램이 저장되어 있고, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때 제1항 내지 제6항 중 어느 한 항에 따른 방법의 단계를 실행하는 저장 매체를 포함하는,
    전자 장치.
  13. 컴퓨터 프로그램이 저장되어 있는 매체로서,
    상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때 제1항 내지 제6항 중 어느 한 항에 따른 방법의 단계를 실행하는,
    저장 매체.
  14. 삭제
  15. 삭제
  16. 삭제
KR1020207034113A 2018-11-30 2019-04-11 로봇의 지도 구축 및 위치 추적 KR102433743B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201811463300.8 2018-11-30
CN201811463300.8A CN109682368B (zh) 2018-11-30 2018-11-30 机器人及地图构建方法、定位方法、电子设备、存储介质
PCT/CN2019/082290 WO2020107772A1 (zh) 2018-11-30 2019-04-11 机器人地图构建和定位

Publications (2)

Publication Number Publication Date
KR20210005925A KR20210005925A (ko) 2021-01-15
KR102433743B1 true KR102433743B1 (ko) 2022-08-18

Family

ID=66186017

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207034113A KR102433743B1 (ko) 2018-11-30 2019-04-11 로봇의 지도 구축 및 위치 추적

Country Status (5)

Country Link
EP (1) EP3660618B1 (ko)
JP (1) JP6632173B1 (ko)
KR (1) KR102433743B1 (ko)
CN (1) CN109682368B (ko)
WO (1) WO2020107772A1 (ko)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110202570B (zh) * 2019-05-13 2022-07-05 深圳创动科技有限公司 机器人及其运动控制方法以及存储介质
CN112711249B (zh) * 2019-10-24 2023-01-03 科沃斯商用机器人有限公司 机器人定位方法、装置、智能机器人和存储介质
CN111028658A (zh) * 2019-11-18 2020-04-17 杭州晶一智能科技有限公司 一种基于gps和在线地图的割草机器人电子地图构建方法
CN111199677B (zh) * 2019-12-25 2022-02-18 邦鼓思电子科技(上海)有限公司 一种室外区域的工作地图自动建立方法,装置,存储介质及工作设备
CN113138593A (zh) * 2020-01-02 2021-07-20 苏州宝时得电动工具有限公司 自主机器人的地图创建方法、装置、设备及存储介质
WO2021208416A1 (zh) * 2020-04-17 2021-10-21 宝时得科技(中国)有限公司 自移动设备、终端、服务器自动更新数据模型的方法
CN113822094B (zh) * 2020-06-02 2024-01-16 苏州科瓴精密机械科技有限公司 基于图像识别工作位置的方法、系统,机器人及存储介质
CN113806377B (zh) * 2020-06-12 2023-08-18 未岚大陆(北京)科技有限公司 地图更新方法、设备及存储介质
CN112223281A (zh) * 2020-09-27 2021-01-15 深圳市优必选科技股份有限公司 机器人及其定位方法和装置
CN112215863B (zh) * 2020-10-13 2023-08-29 北京易控智驾科技有限公司 露天矿装载区多台阶作业场景检测方法和系统
CN112833890A (zh) * 2020-12-30 2021-05-25 深圳市海柔创新科技有限公司 地图构建方法、装置、设备、机器人及存储介质
CN112869639B (zh) * 2021-01-29 2022-06-14 深圳拓邦股份有限公司 机器人回充探索方法、装置及扫地机器人
CN113419249A (zh) * 2021-06-18 2021-09-21 珠海市一微半导体有限公司 一种重定位方法、芯片和移动机器人
CN113688678B (zh) * 2021-07-20 2024-04-12 深圳市普渡科技有限公司 路标多歧义处理方法、机器人及存储介质
CN113670292B (zh) * 2021-08-10 2023-10-20 追觅创新科技(苏州)有限公司 地图的绘制方法和装置、扫地机、存储介质、电子装置
CN114494848B (zh) * 2021-12-21 2024-04-16 重庆特斯联智慧科技股份有限公司 一种机器人视距路径确定方法和装置
CN116466693A (zh) * 2022-01-11 2023-07-21 未岚大陆(北京)科技有限公司 地图处理方法、自移动的园艺设备、以及自动割草机
CN114578727A (zh) * 2022-01-29 2022-06-03 深圳市云鼠科技开发有限公司 用于清洁机器人的业务逻辑控制方法
CN114543808A (zh) * 2022-02-11 2022-05-27 杭州萤石软件有限公司 室内重定位方法、装置、设备及存储介质
CN116965745A (zh) * 2022-04-22 2023-10-31 追觅创新科技(苏州)有限公司 坐标重定位方法、系统及清洁机器人
CN114983272B (zh) * 2022-05-30 2024-05-14 美智纵横科技有限责任公司 场景地图处理方法和装置、清洁组件和清洁设备
CN115657674B (zh) * 2022-10-26 2023-05-05 宝开(上海)智能物流科技有限公司 一种基于图神经网络的分布式路径规划方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005339408A (ja) * 2004-05-28 2005-12-08 Toshiba Corp 自走式ロボット及びその制御方法
US20100070078A1 (en) 2008-09-16 2010-03-18 Samsung Electronics Co., Ltd. Apparatus and method for building map
JP2017093626A (ja) 2015-11-19 2017-06-01 シャープ株式会社 自走式電子機器

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100843085B1 (ko) * 2006-06-20 2008-07-02 삼성전자주식회사 이동 로봇의 격자지도 작성 방법 및 장치와 이를 이용한영역 분리 방법 및 장치
CN101727756B (zh) * 2008-10-16 2012-07-25 财团法人工业技术研究院 交通工具移动图像辅助导引方法与系统
US8185239B2 (en) * 2008-11-13 2012-05-22 MSI Computer (Shenzhen) Co, Ltd. Moving route planning method and navigation method for avoiding dynamic hindrances for mobile robot device
CN103278170B (zh) * 2013-05-16 2016-01-06 东南大学 基于显著场景点检测的移动机器人级联地图创建方法
EP3315911B1 (en) * 2015-06-26 2019-08-07 Nissan Motor Co., Ltd. Vehicle position determination device and vehicle position determination method
JP6638348B2 (ja) * 2015-11-20 2020-01-29 日本精工株式会社 移動ロボットシステム
CN105928505B (zh) * 2016-04-19 2019-01-29 深圳市神州云海智能科技有限公司 移动机器人的位姿确定方法和设备
JP2017198517A (ja) * 2016-04-27 2017-11-02 株式会社国際電気通信基礎技術研究所 3次元地図生成システム
CN105973246A (zh) * 2016-04-29 2016-09-28 海尔优家智能科技(北京)有限公司 一种地磁地图的绘制方法、装置及机器人
JP6867120B2 (ja) * 2016-07-28 2021-04-28 シャープ株式会社 地図作成方法及び地図作成装置
US9964955B2 (en) * 2016-08-04 2018-05-08 Canvas Technology, Inc. System and methods of determining a geometric pose of a camera based on spatial and visual mapping
JP6976050B2 (ja) * 2016-11-07 2021-12-01 日産自動車株式会社 駐車制御装置の姿勢推定方法、及び姿勢推定装置
CN106863305B (zh) * 2017-03-29 2019-12-17 赵博皓 一种扫地机器人房间地图创建方法及装置
CN107167148A (zh) * 2017-05-24 2017-09-15 安科机器人有限公司 同步定位与地图构建方法和设备
CN108106616B (zh) * 2017-12-13 2020-07-28 深圳市艾特智能科技有限公司 一种自建导航地图的方法、系统及智能设备
CN107943058A (zh) * 2017-12-26 2018-04-20 北京面面俱到软件有限公司 扫地机器人及其清扫路径规划方法
CN108225348B (zh) * 2017-12-29 2021-08-24 百度在线网络技术(北京)有限公司 地图创建以及运动实体定位的方法和装置
CN108089585A (zh) * 2018-01-06 2018-05-29 深圳慎始科技有限公司 一种具有地图构建和导航的清扫机器人
CN108717710B (zh) * 2018-05-18 2022-04-22 京东方科技集团股份有限公司 室内环境下的定位方法、装置及系统
CN108759844B (zh) * 2018-06-07 2021-11-16 科沃斯商用机器人有限公司 机器人重定位与环境地图构建方法、机器人及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005339408A (ja) * 2004-05-28 2005-12-08 Toshiba Corp 自走式ロボット及びその制御方法
US20100070078A1 (en) 2008-09-16 2010-03-18 Samsung Electronics Co., Ltd. Apparatus and method for building map
JP2017093626A (ja) 2015-11-19 2017-06-01 シャープ株式会社 自走式電子機器

Also Published As

Publication number Publication date
EP3660618A1 (en) 2020-06-03
JP2020087415A (ja) 2020-06-04
EP3660618B1 (en) 2020-12-23
KR20210005925A (ko) 2021-01-15
WO2020107772A1 (zh) 2020-06-04
JP6632173B1 (ja) 2020-01-22
CN109682368B (zh) 2021-07-06
CN109682368A (zh) 2019-04-26

Similar Documents

Publication Publication Date Title
KR102433743B1 (ko) 로봇의 지도 구축 및 위치 추적
US10611028B1 (en) Map building and positioning of robot
CN113110457B (zh) 在室内复杂动态环境中智能机器人的自主覆盖巡检方法
KR101203897B1 (ko) 이동체(mobile body)를 위한 셀?기반 경로 계획 장치 및 방법
CN105487535A (zh) 一种基于ros的移动机器人室内环境探索系统与控制方法
Bosse ATLAS: a framework for large scale automated mapping and localization
Chen et al. An enhanced dynamic Delaunay triangulation-based path planning algorithm for autonomous mobile robot navigation
Puthussery et al. A deep vision landmark framework for robot navigation
Yang et al. Far planner: Fast, attemptable route planner using dynamic visibility update
Ko et al. Semantic mapping and navigation: A Bayesian approach
TW202036030A (zh) 資訊處理裝置以及移動機器人
Meng et al. Intelligent robotic system for autonomous exploration and active slam in unknown environments
CN115164906A (zh) 定位方法、机器人和计算机可读存储介质
US20230266470A1 (en) Robot relocalization method and apparatus, and storage medium and electronic device
Imani et al. Three main paradigms of simultaneous localization and mapping (SLAM) problem
AU2021273605B2 (en) Multi-agent map generation
Tas et al. High-definition map update framework for intelligent autonomous transfer vehicles
Braun et al. Topological large-scale off-road navigation and exploration RAVON at the European Land Robot Trial 2008
Lee et al. Velocity range-based reward shaping technique for effective map-less navigation with LiDAR sensor and deep reinforcement learning
Khnissi et al. Implementation of a new-optimized ROS-based SLAM for mobile robot
Spampinato et al. Low Cost Point to Point Navigation System
RAVANKAR et al. Pose Graph Map Merging SLAM for Multiple Robots
Zhang et al. Map representations for mobile robot localization
Park et al. Sensor fusion-based exploration in home environments using information, driving and localization gains
Al Azzawı ISTANBUL TECHNICAL UNIVERSITY★ GRADUATE SCHOOL

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant