KR20180076815A - Qr 마커와 레이저 스캐너를 이용하여 광범위 실내 공간에서 로봇의 위치를 인식하기 위한 방법 및 장치 - Google Patents

Qr 마커와 레이저 스캐너를 이용하여 광범위 실내 공간에서 로봇의 위치를 인식하기 위한 방법 및 장치 Download PDF

Info

Publication number
KR20180076815A
KR20180076815A KR1020160181389A KR20160181389A KR20180076815A KR 20180076815 A KR20180076815 A KR 20180076815A KR 1020160181389 A KR1020160181389 A KR 1020160181389A KR 20160181389 A KR20160181389 A KR 20160181389A KR 20180076815 A KR20180076815 A KR 20180076815A
Authority
KR
South Korea
Prior art keywords
robot
indoor space
information
marker
graph
Prior art date
Application number
KR1020160181389A
Other languages
English (en)
Other versions
KR102041664B1 (ko
Inventor
명현
김형진
오택준
정광익
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020160181389A priority Critical patent/KR102041664B1/ko
Publication of KR20180076815A publication Critical patent/KR20180076815A/ko
Application granted granted Critical
Publication of KR102041664B1 publication Critical patent/KR102041664B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • G05D1/0236Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Toxicology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

로봇의 위치 인식 장치는 미리 설정된 위치에 배치된 적어도 하나의 QR 마커에 대한 정보 및 로봇에 설치된 적어도 하나의 센서에 의해 센싱된 정보를 획득하여 로봇의 위치를 추정한다.

Description

QR 마커와 레이저 스캐너를 이용하여 광범위 실내 공간에서 로봇의 위치를 인식하기 위한 방법 및 장치{METHOD AND APPARATUS FOR ESTIMATING LOCALIZATION OF ROBOT IN WIDE RANGE OF INDOOR SPACE USING QR MARKER AND LASER SCANNER}
아래의 실시예들은 광범위 실내 공간에서 로봇의 위치를 인식하기 위한 방법 및 장치에 관한 것으로, 보다 구체적으로 QR 마커와 레이저 스캐너를 이용하여 광범위 실내 공간에서 로봇의 위치를 인식하기 위한 방법 및 장치에 관한 것이다.
산업 로봇은 고정된 위치에서 똑같은 일을 반복적으로 수행하며, 필드 로봇은 다양한 환경에서 다양한 일을 수행한다. 이런 필드 로봇은 최근 로봇 기술이 발전하면서 나타나고 있다.
필드 로봇은 다양한 환경에서 작업을 수행하기 때문에 로봇 자동화를 위해서는 많은 어려움이 있다. 필드 로봇의 자동화에 대한 주요 이슈 중에 하나는 로봇의 자기위치인식 문제를 해결하는 것이다.
위치 인식을 위해서 레이저 스캐너를 활용하는 기술이 제안된 바 있다. 하지만, 유리와 같은 반사 물질을 포함하는 벽면 등에 대한 스캔된 정보를 획득하는 경우에, 스캔된 정보로부터 타겟에 대한 정보를 정확하게 얻기 어려우며, 동적인 물체나 환경의 변화로 인한 작성된 맵의 기준 데이터의 변화는 위치 인식 신뢰도의 감소를 야기한다.
또한, 특정 오브젝트 또는 특정 위치에 부착된 QR 코드는 해당 오브젝트 또는 해당 위치에 대한 여러 정보를 제공할 수 있다. 다만, QR 코드를 제대로 인식하기 위해서는 카메라가 고정되어야 할 필요가 있다. 또한, 카메라가 설치된 로봇이 QR 코드를 제대로 인식하기 위해서는 로봇의 이동 속도는 제한될 수 있다.
본 발명의 일실시예에 따른 로봇의 위치 인식 방법 및 장치는 실내 공간에 배치된 QR 마커에 대한 정보 및 로봇에 설치된 센서에 의해 센싱된 정보를 이용하여 로봇의 위치를 보다 정확하게 인식한다.
또한, 본 발명의 일실시예에 따른 로봇의 위치 인식 방법 및 장치는 실내 공간에 배치된 QR 마커에 대한 정보 및 로봇에 설치된 센서에 의해 센싱된 정보를 이용하여 로봇이 높은 속도로 주행함에도 불구하고, 로봇의 위치를 보다 정확하게 인식한다.
또한, 본 발명의 일실시예에 따른 로봇의 위치 인식 방법 및 장치는 QR 마커에 대한 정보와 로봇에 설치된 센서에 의해 센싱된 정보를 구속조건으로 사용하여 그래프를 생성함으로써 로봇의 위치 인식을 개선한다.
또한, 본 발명의 일실시예에 따른 로봇의 위치 인식 방법 및 장치는 생성된 그래프를 최적화하여 맵을 생성하는 과정을 이용하여 보다 정확한 위치 인식을 실현한다.
또한, 본 발명의 일실시예에 따른 로봇의 위치 인식 방법 및 장치는 레이저 스캐너에 의해 스캔된 정보와 맵을 정합하여 로봇의 위치를 보다 정확하게 추정한다.
본 발명의 일실시예에 따른 로봇의 위치 인식 방법은 실내 공간의 미리 설정된 위치에 배치된 적어도 하나의 QR 마커에 대한 정보 및 로봇에 설치된 적어도 하나의 센서에 의해 센싱된 정보를 획득하는 단계; 및 상기 QR 마커에 대한 정보 및 상기 로봇에 설치된 상기 적어도 하나의 센서에 의해 센싱된 정보를 이용하여 상기 로봇의 위치를 추정하는 단계를 포함한다.
상기 QR 마커의 모서리들에는 복수의 베젤들이 배치되고, 상기 복수의 베젤들 각각은 서로 다른 두께를 가질 수 있다.
상기 로봇의 위치 인식 방법은 상기 로봇에 의해 인식되는 베젤들 각각의 두께에 기초하여 상기 로봇의 오리엔테이션을 판단하는 단계를 포함할 수 있다.
상기 로봇의 위치를 추정하는 단계는 상기 QR 마커에 대한 정보 및 상기 로봇에 설치된 상기 적어도 하나의 센서에 의해 센싱된 정보를 구속 조건으로 사용하여 그래프를 생성하는 단계; 및 상기 로봇의 위치를 추정하기 위하여 상기 그래프를 최적화하는 단계를 포함할 수 있다.
상기 로봇의 위치를 추정하는 단계는 상기 최적화된 그래프를 이용하여 상기 실내 공간에 대응하는 맵을 생성하는 단계; 및 레이저 스캐너를 이용하여 스캔된 데이터와 상기 생성된 맵을 매칭하는 단계를 포함할 수 있다.
상기 로봇의 위치 인식 방법은 상기 추정된 로봇의 위치를 파티클 필터를 이용하여 필터링하는 단계를 더 포함할 수 있다.
상기 로봇에 설치된 적어도 하나의 센서는 오도메트리(Odometry), 자이로스코프, LiDAR(Light Detection And Ranging) 또는 Camera 중 적어도 하나를 포함할 수 있다.
본 발명의 일실시예에 따른 로봇의 위치 인식 장치는 실내 공간의 미리 설정된 위치에 배치된 적어도 하나의 QR 마커에 대한 정보 및 로봇에 설치된 적어도 하나의 센서에 의해 센싱된 정보를 획득하는 획득부 및 상기 QR 마커에 대한 정보 및 상기 로봇에 설치된 상기 적어도 하나의 센서에 의해 센싱된 정보를 이용하여 상기 로봇의 위치를 추정하는 추정부를 포함한다.
상기 QR 마커의 모서리들에는 복수의 베젤들이 배치되고, 상기 복수의 베젤들 각각은 서로 다른 두께를 가질 수 있다.
상기 로봇의 위치 인식 장치는 로봇에 의해 인식되는 베젤들 각각의 두께에 기초하여 상기 로봇의 오리엔테이션을 판단하는 오리엔테이션 판단부를 포함할 수 있다.
상기 추정부는 상기 QR 마커에 대한 정보 및 상기 로봇에 설치된 상기 적어도 하나의 센서에 의해 센싱된 정보를 구속 조건으로 사용하여 그래프를 생성하는 그래프 생성부 및 상기 로봇의 위치를 추정하기 위하여 상기 그래프를 최적화하는 최적화부를 포함할 수 있다.
상기 추정부는 상기 최적화된 그래프를 이용하여 상기 실내 공간에 대응하는 맵을 생성하는 맵 생성부, 레이저 스캐너를 이용하여 스캔된 데이터와 상기 생성된 맵을 매칭하는 정합부를 포함할 수 있다.
상기 로봇의 위치 인식 장치는 상기 추정된 로봇의 위치를 파티클 필터를 이용하여 필터링하는 필터를 더 포함할 수 있다. 상기 로봇에 설치된 적어도 하나의 센서는 오도메트리(Odometry), 자이로스코프, LiDAR(Light Detection And Ranging), 또는 Camera 중 적어도 하나를 포함할 수 있다.
본 발명의 일실시예에 따른 로봇의 위치 인식 방법 및 장치는 실내 공간에 배치된 QR 마커에 대한 정보 및 로봇에 설치된 센서에 의해 센싱된 정보를 이용하여 로봇의 위치를 보다 정확하게 인식할 수 있다.
또한, 본 발명의 일실시예에 따른 로봇의 위치 인식 방법 및 장치는 실내 공간에 배치된 QR 마커에 대한 정보 및 로봇에 설치된 센서에 의해 센싱된 정보를 이용하여 로봇이 높은 속도로 주행함에도 불구하고, 로봇의 위치를 보다 정확하게 인식할 수 있다.
또한, 본 발명의 일실시예에 따른 로봇의 위치 인식 방법 및 장치는 QR 마커에 대한 정보와 로봇에 설치된 센서에 의해 센싱된 정보를 구속조건으로 사용하여 그래프를 생성함으로써 로봇의 위치 인식 방법을 개선할 수 있다.
또한, 본 발명의 일실시예에 따른 로봇의 위치 인식 방법 및 장치는 생성된 그래프를 최적화하여 맵을 생성하는 과정을 이용하여 보다 정확한 위치 인식을 실현할 수 있다.
또한, 본 발명의 일실시예에 따른 로봇의 위치 인식 방법 및 장치는 레이저 스캐너에 의해 스캔된 정보와 맵을 정합하여 로봇의 위치를 보다 정확하게 추정할 수 있다.
도 1 은 본 발명의 일실시예에 따른 실내 공간에서 이동하는 로봇 및 로봇의 위치 인식 장치를 포함하는 로봇의 위치 인식 시스템을 나타낸다.
도 2는 본 발명의 일실시예에 따른 로봇의 위치를 인식하는 방법을 나타낸 흐름도이다.
도 3은 본 발명의 일실시예에 따라 로봇에 설치된 센서들의 정보를 이용하여 맵핑 알고리즘을 실행하는 과정을 개략적으로 나타낸 도면이다.
도 4는 본 발명의 일실시예에 따라 실내 공간에 배치되는 QR 마커의 예를 나타낸다.
도 5는 본 발명의 일실시예에 따라 생성되는 마커 기반 맵 및 매핑 알고리즘의 실행 결과물을 예시적으로 나타낸다.
도6은 본 발명의 일실시예에 따라 로봇의 위치 결과를 추정하는 위치인식 알고리즘을 실행하는 과정을 개략적으로 나타낸 도면이다.
도7은 본 발명의 일실시예에 따라 실내공간에 배치되는 레이저 스캐너를 나타낸 도면이다.
이하, 본 발명의 실시예들을 첨부된 도면들을 참조하여 설명한다. 아래에서는 한정된 실시예들이 기술되지만, 이러한 실시예들은 본 발명의 예이며, 당업자는 이러한 실시예들을 용이하게 변경할 수 있다.
도 1 은 본 발명의 일실시예에 따른 실내 공간에서 이동하는 로봇 및 로봇의 위치 인식 장치를 포함하는 로봇의 위치 인식 시스템을 나타낸다.
도 1을 참조하면, 실내 공간(100)에는 복수의 QR 마커들(110)이 미리 설정된 위치들에 배치된다. 또한, 로봇(120)은 실내 공간(100)에서 이동할 수 있으며, 위치 인식 장치(101)는 로봇(120)의 위치를 실시간으로 추정한다. 실내 공간(100)은 광범위한 것을 전제로 한다.
위치 인식 장치(101)는 획득부(130), 오리엔테이션 판단부(140), 추정부(150), 그래프 생성부(151), 최적화부(152), 맵생성부(153), 정합부(154) 및 필터(160)를 포함한다.
획득부(130)는 실내 공간(100)의 미리 설정된 위치에 배치된 복수의 QR 마커들(110)에 대한 정보 및 로봇(120)에 설치된 적어도 하나의 센서에 의해 센싱된 정보를 획득한다. 이 때, 센서는 오도메트리(Odometry), 자이로스코프, LiDAR(Light Detection And Ranging) 또는 Camera 중 적어도 하나를 포함할 수 있다.
이 때, 복수의 QR 마커들(110)에 대한 정보는 QR 마커들(110) 각각의 위치 정보를 포함할 수 있으며, 위치 인식 장치(101)는 QR 마커들(110) 각각의 위치 정보를 기초로 로봇(120)의 위치를 추정할 수 있다. 다만, 로봇(120)이 이동하는 경우, 복수의 QR 마커들(110)은 로봇(120)에 의해 잘 인식되지 않을 수 있다. 본 발명의 일실시예에 따른 복수의 QR 마커들(110) 각각은 로봇(120)의 인식률을 높이기 위하여 설계될 수 있으며, 이에 대해서는 도 4를 참조하여 다시 설명한다.
또한, 오리엔테이션 판단부(140)는 QR마커(110)에 대한 정보를 이용하여 로봇의 오리엔테이션을 판단할 수 있다. 오리엔테이션 판단에 대한 상세한 설명은 도4를 참조하여 다시 설명한다.
추정부(150)는 복수의 QR마커들(110)에 대한 정보 및 로봇(120)에 설치된 적어도 하나의 센서에 의해 센싱된 정보로 위치를 추정할 수 있다. 추정부(150)는 그래프 생성부(151), 최적화부(152), 맵 생성부(153) 및 정합부(154)를 포함한다.
그래프 생성부(151)는 그래프를 생성하여 로봇(120)의 위치를 추정한다. 예를 들어, 로봇(120)의 위치는 복수의 QR마커(110)들 각각의 위치 정보와 로봇(120)에 설치된 오도메트리(Odometry) 센서에 의하여 센싱된 정보를 기초로 추정될 수 있다. 여기서, 오도메트리(Odometry)는 모션센서에 의하여 얻어진 데이터를 이용하여 로봇(120)의 변위를 추정한다. 그래프 생성부(151)는 로봇(120)의 변위 정보와 복수의 QR마커(110)들 각각의 위치 정보를 구속조건으로 이용하여 그래프를 생성한다. 구속 조건은 각 그래프의 결과값이 계수부족이나 불량조건과 같은 수치적인 문제 때문에 비현실적인 값이 얻어지는 경우를 방지한다. 그래프를 생성하는 과정에 대한 상세한 설명은 도3에서 설명한다.
또한, 최적화부(152)는 생성된 그래프에 대한 최적화 과정을 수행한다. 그리고, 맵 생성부(153)는 최적화된 그래프를 이용하여 맵을 생성한다. 맵 생성부(153)는 최적화된 그래프를 이용하여 소수의 초기 QR마커(110)들을 등록한 후 나머지 마커들을 자동으로 등록함으로써 빠르고 효율적으로 맵을 생성한다. 맵을 생성하는 과정에 대한 상세한 설명은 도5에서 설명한다.
정합부(154)는 생성된 맵을 레이저 스캐너에서 스캔된 데이터와 정합한다. 정합된 스캔된 데이터와 맵에 기초하여 로봇(120)의 위치는 추정될 수 있다. 레이저 스캐너에서 스캔된 데이터는 로봇(120)으로부터 제공될 수 있다. 레이저 스캐너에 대한 상세한 설명은 도 7에서 설명한다. 두 데이터를 정합하는 과정에 대한 상세한 설명은 도 6에서 상세히 설명한다.
또한, 필터(160)는 위치 결과를 파티클 필터를 이용하여 필터링 한다. 파티클 필터의 리샘플링은 복수의 QR마커(110)들에 대한 정보를 획득함과 동시에 일어난다.
도 2는 본 발명의 일실시예에 따른 로봇의 위치를 인식하는 방법을 나타낸 흐름도이다.
도 2를 참조하면 본 발명의 일실시예에 따른 위치 인식 방법은 실내 공간(100)의 미리 설정된 위치에 배치된 복수의QR마커(110)들에 대한 정보 및 로봇(120)에 설치된 적어도 하나의 센서에 의해 센싱된 정보를 획득한다(S210).
이 때, 복수의 QR마커(110)들에 대한 정보와 로봇(120)에 설치된 적어도 하나의 센서에 의해 센싱된 정보의 획득은 순차적으로 수행될 수도 있지만 병렬적으로 수행될 수도 있다.
또한, 로봇(120)의 오리엔테이션 판단은 복수의 QR마커(110)들에 대한 정보를 이용한다(S221). 이때, 로봇(120)의 오리엔테이션 판단은 복수의 QR마커(110)들에 대한 정보와 로봇(120)에 설치된 적어도 하나의 센서에 의해 센싱된 정보의 획득과 병렬적으로 수행되거나 순차적으로 수행될 수 있다.
위치 인식 장치(101)는 복수의 QR마커(110)들에 대한 정보 및 로봇(120)에 설치된 적어도 하나의 센서에 의해 센싱된 정보에 기초하여 그래프를 생성하고, 생성된 그래프를 최적화한다(S222, S230). 단계 S241은 최적화된 그래프를 이용하여 맵을 생성한다. 단계S250은 생성된 맵을 레이저 스캐너로 스캔된 데이터와 정합하여 위치를 추정할 수 있다. 레이저 스캐너로 스캔된 데이터는 로봇(120)으로부터 수신될 수 있다(S242).
예를 들어, 맵이 가진 로봇(120)에 대한 좌표와 레이저 스캐너로 스캔된 데이터가 가진 좌표는 상기 각각의 데이터의 오차를 보완할 수 있다. 맵이 가진 로봇(120)의 위치 정보에 대한 오차는 로봇(120)의 빠른 이동 속도로 인한 QR코드 인식불명 및 카메라 인식 과정에서 빛 환경이 취약할 시 생길 수 있다. 레이저 스캐너로 스캔된 데이터에 대한 오차는 환경변화에서 기인할 수 있다. 따라서 생성된 맵과 레이저 스캐너로 스캔된 데이터의 정합은 각각의 오차를 보완하는 방향으로 이루어진다.
또한, 단계S270은 정합된 데이터를 이용하여 추정된 위치를 파티클 필터를 이용하여 필터링을 수행할 수 있다.
도3은 본 발명의 일실시예에 따라 로봇에 설치된 센서들의 정보를 이용하여 맵핑 알고리즘을 실행하는 과정을 개략적으로 나타낸 도면이다.
로봇(120)의 위치 인식 장치(101)는 QR마커(110)에 대한 정보 및 로봇(120)의 센서에 의해 센싱된 정보를 획득하여 맵핑 알고리즘(330)을 통해 맵핑 결과(340)를 도출한다. 맵핑 알고리즘(330)은 그래프 생성부(151), 최적화부(152) 및 맵 생성부(153)를 포함할 수 있다. 그래프 생성부(151)는 QR마커(110)에 대한 정보 및 로봇(120)의 센서에 의해 센싱된 정보를 이용하여 그래프를 생성한다.
예를 들어, 로봇(120)은 일정수준 이상 복수의 QR 마커(110)에 근접하면 그에 대한 정보를 획득할 수 있다. 그래프 생성부(151)는 복수의 QR 마커(110)들 각각의 위치 정보를 (x1,y1), (x2,y2), (x3,y3)등으로 좌표화 할 수 있다. 또한, 그래프 생성부(151)는 오도메트리(Odometry)로 얻어진 로봇(120)의 변위 정보를 이용하여 로봇(120)의 초기 위치에 대한 나중 위치를 좌표화 할 수 있다. 그래프 생성부(151)는 좌표화 된 복수의 QR 마커(110)들 각각의 위치 정보와 로봇(120)의 초기 위치와 나중 위치를 좌표화 한 값을 비교하여 그래프를 생성할 수 있다. 예를 들어, 그래프 생성부(151)는 (x1,y1)을 좌표로 둔 QR마커(110)를 기준점으로 두어 로봇(120)의 위치와 비교하여 좌표를 생성할 수 있다. 그래프 생성부(151)는 그래프의 좌표를 (x1,y1), (x1+X1,y1+Y1)등 과 같이 표현할 수 있다. 그래프 생성부(151)는 이와 같은 예를 다른 기준 좌표를 둔 마커들로 반복하여 수행할 수 있다. 그래프 생성부(151)는 반복적인 좌표화를 이용하여 복수의 QR마커(110)들에 대한 로봇(120)의 상대적인 위치를 파악하여 그래프를 생성할 수 있다.
최적화부(152)는 로봇(120)의 위치에 대한 보다 정확한 정보의 실현을 가능하게 한다. 예를 들어, 최적화부(152)는 상술한 구속 조건이 있는 상황에서 생성된 그래프가 가질 수 있는 최대치 및 최소치를 계산하여 로봇(120)의 위치 추정을 개선할 수 있다.
최적화된 그래프는 맵생성부(153)에서 맵을 생성하는데 이용한다. 맵을 생성하는 과정에 대한 상세한 설명은 도5에서 설명한다.
도 4는 본 발명의 일실시예에 따라 실내 공간에 배치되는 QR 마커의 예를 나타낸다.
QR마커(110)의 중앙부에는 QR코드(420)가 배치되고, QR마커(110)의 모서리들에는 복수의 베젤(420)들이 배치된다. QR코드(420)는 로봇이 1m/s의 속도로 움직일 때 인식 가능한 최소 크기의 코드일 수 있다. 베젤(420)이란, 복수의 QR마커(110)들 각각의 모서리에 배치되는 테두리를 말한다. 복수의 베젤(420)들 각각은 서로 다른 두께를 가질 수 있다.
로봇(120)의 위치인식 장치(101)는 베젤(420)들 각각의 두께에 기초하여 로봇(120)의 오리엔테이션을 판단할 수 있다. 예를 들어, 상단의 베젤(420)이 2CM, 하단의 베젤(420)이 1CM 라고 가정하였을 때, 로봇(120)이 하단의 베젤(420)보다 상단의 베젤(420)에 더 가깝다고 인식하였을 경우, 즉 로봇(120)이 두께가 얇은 베젤(420)보다 두꺼운 베젤(420)에 더 가깝다고 인식하였을 경우, 로봇(120)의 오리엔테이션은 상단에 위치하였음을 추정할 수 있다. 이와 유사한 예를 들어, 좌측의 베젤(420)이 2CM, 우측의 베젤(420)이 1CM 라고 가정하였을 때, 로봇(120)이 우측의 베젤(420)보다 좌측의 베젤(420)에 더 가깝다고 인식하였을 경우, 즉 로봇(120)이 두께가 얇은 베젤(420)보다 두꺼운 베젤(420)에 더 가깝다고 인식하였을 경우, 로봇(120)의 오리엔테이션은 좌측에 위치하였음을 추정할 수 있다.
도 5는 본 발명의 일실시예에 따라 생성되는 마커 기반 맵 및 매핑 알고리즘의 실행 결과물을 예시적으로 나타낸다.
도5는 위치 인식 장치(101)가 맵핑 알고리즘(330)을 실행하였을 경우 생성되는 결과물을 도식화 한다. 맵핑 알고리즘(330)은 SLAM 기법을 사용한다. SLAM(simultaneous localization and mapping) 기법은 복수의 QR마커(110)들 각각의 위치 정보를 획득하는 동시에 맵핑이 일어나는 기법이다. SLAM 기법은 'chicken and egg problem' 과 유사하게 이해된다. 예를 들어, 맵핑 알고리즘(330)은 복수의 QR마커(110)들 각각의 위치 정보를 그래프를 생성하는 데 사용하는 동시에 그래프를 이용하여 초기 복수의 QR마커(110)들 각각의 위치 정보를 그 이외의 복수의 QR마커(110)들 각각의 위치를 추정하는 데 사용할 수 있다. 좌측의 도면은 이때 생성되는 마커기반 맵을 설명한다. 우측의 도면은 이때 생성되는 최적화된 그래프를 설명한다.
도6은 본 발명의 일실시예에 따라 로봇(120)의 위치 결과를 추정하는 위치인식 알고리즘(610)을 실행하는 과정을 개략적으로 나타낸 도면이다.
도6은 레이저 스캐너로 스캔된 정보와 맵핑 알고리즘(330)을 이용하여 생성된 맵핑 결과(340)를 정합하는 정합부(154)를 이용하여, 위치인식 알고리즘(610)을 생성하는 과정을 도식화한다. 위치인식 알고리즘(610)은 위치 결과(620)를 추정할 수 있다. 정합부(154)는 레이저 스캐너로 스캔된 정보와 맵핑 알고리즘(330)을 이용하여 생성된 맵핑 결과(340)의 특징 점을 정합할 수 있다. 정합부(154)는 레이저 스캐너로 스캔된 정보의 특징 점을 추출하고, 맵핑 결과(340)의 특징점을 추출한다. 정합부(154)는 레이저 스캐너로 스캔된 정보의 특징점과 맵핑 결과(340)의 특징점을 정합할 수 있다. 위치 인식 알고리즘(610)은 정합된 결과로 위치를 추정할 수 있다.
도7은 본 발명의 일실시예에 따라 실내공간에 배치되는 레이저스캐너를 나타낸 도면이다.
레이저 스캐너는 로봇(120)의 위치 추정을 위해 로봇(120)과 주변 물체와의 절대거리를 알려주는 장치이다. 레이저 스캐닝은 현대 공학에서 주로 두 개의 정의로 사용된다. 더 일반적이라고 여겨지는 첫 번째 정의는 레이저 빔 반사가 제한되어 돌아오는 원리를 사용한다. 이는 레이저에서 출력된 레이저 빔이 물체로부터 반사되어 레이저로 돌아와 인식가능한지 혹은 불가능한지를 판단하여 물체의 위치를 추정할 수 있다. 두 번째 정의는 첫 번째 정의와 비교하여 조금 더 상세한 물체 인식이 가능하다. 이는 모든 방향으로 레이저를 출력함으로써 물체와의 거리를 측정한다. 이 때, 레이저 스캐너는 기준 신호와 물체에 반사되어 돌아오는 레이저 광 신호간의 비행시간이 거리에 따라 변하는 원리를 이용한다. 상술한 발명은 두 번째 레이저 스캐닝의 정의를 이용한다. 위치 인식 장치(101)는 레이저 스캐너로 스캔된 데이터를 좌표화 할 수 있다. 레이저 스캐너로 스캔된 데이터는 오브젝트에 대한 로봇(120)의 상대적인 위치를 말할 수 있다. 레이저 스캐너로 스캔된 데이터는 로봇(120)의 위치를 추정하는 데 이용된다. 레이저 스캐닝은 로봇(120)의 위치 추정 방법 외에 무인차량 주행, 조선 하역장 자동화, 토목/건축 환경에서의 거리/면적, 문화재 원형복원용 디지털 3D 형상, 가상 게임 등 다양하게 적용 가능하다.
이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 시스템, 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예들에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (14)

  1. 실내 공간의 미리 설정된 위치에 배치된 적어도 하나의 QR 마커에 대한 정보 및 로봇에 설치된 적어도 하나의 센서에 의해 센싱된 정보를 획득하는 단계; 및
    상기 QR 마커에 대한 정보 및 상기 로봇에 설치된 상기 적어도 하나의 센서에 의해 센싱된 정보를 이용하여 상기 로봇의 위치를 추정하는 단계
    를 포함하는 실내 공간에서 로봇의 위치를 인식하는 방법.
  2. 제1항에 있어서,
    상기 QR 마커의 모서리들에는 복수의 베젤들이 배치되고,
    상기 복수의 베젤들 각각은 서로 다른 두께를 갖는
    실내 공간에서 로봇의 위치를 인식하는 방법.
  3. 제2항에 있어서,
    상기 로봇에 의해 인식되는 베젤들 각각의 두께에 기초하여 상기 로봇의 오리엔테이션을 판단하는 단계
    를 포함하는 실내 공간에서 로봇의 위치를 인식하는 방법.
  4. 제1항에 있어서,
    상기 로봇의 위치를 추정하는 단계는
    상기 QR 마커에 대한 정보 및 상기 로봇에 설치된 상기 적어도 하나의 센서에 의해 센싱된 정보를 구속 조건으로 사용하여 그래프를 생성하는 단계; 및
    상기 로봇의 위치를 추정하기 위하여 상기 그래프를 최적화하는 단계
    를 포함하는 실내 공간에서 로봇의 위치를 인식하는 방법.
  5. 제4항에 있어서,
    상기 로봇의 위치를 추정하는 단계는
    상기 최적화된 그래프를 이용하여 상기 실내 공간에 대응하는 맵을 생성하는 단계; 및
    레이저 스캐너를 이용하여 스캔된 데이터와 상기 생성된 맵을 매칭하는 단계
    를 포함하는 실내 공간에서 로봇의 위치를 인식하는 방법.
  6. 제1항에 있어서,
    상기 추정된 로봇의 위치를 파티클 필터를 이용하여 필터링하는 단계
    를 더 포함하는 실내 공간에서 로봇의 위치를 인식하는 방법.
  7. 제1항에 있어서,
    상기 로봇에 설치된 적어도 하나의 센서는
    오도메트리(Odometry), 자이로스코프, LiDAR(Light Detection And Ranging)또는 Camera 중 적어도 하나를 포함하는 실내 공간에서 로봇의 위치를 인식하는 방법.
  8. 실내 공간의 미리 설정된 위치에 배치된 적어도 하나의 QR 마커에 대한 정보 및 로봇에 설치된 적어도 하나의 센서에 의해 센싱된 정보를 획득하는 획득부; 및
    상기 QR 마커에 대한 정보 및 상기 로봇에 설치된 상기 적어도 하나의 센서에 의해 센싱된 정보를 이용하여 상기 로봇의 위치를 추정하는 추정부
    를 포함하는 실내 공간에서 로봇의 위치를 인식하는 장치.
  9. 제8항에 있어서,
    상기 QR 마커의 모서리들에는 복수의 베젤들이 배치되고,
    상기 복수의 베젤들 각각은 서로 다른 두께를 갖는
    실내 공간에서 로봇의 위치를 인식하는 장치.
  10. 제9항에 있어서,
    상기 로봇에 의해 인식되는 베젤들 각각의 두께에 기초하여 상기 로봇의 오리엔테이션을 판단하는 오리엔테이션 판단부
    를 포함하는 실내 공간에서 로봇의 위치를 인식하는 장치.
  11. 제8항에 있어서,
    상기 추정부는
    상기 QR 마커에 대한 정보 및 상기 로봇에 설치된 상기 적어도 하나의 센서에 의해 센싱된 정보를 구속 조건으로 사용하여 그래프를 생성하는 그래프 생성부; 및
    상기 로봇의 위치를 추정하기 위하여 상기 그래프를 최적화하는 최적화부
    를 포함하는 실내 공간에서 로봇의 위치를 인식하는 장치.
  12. 제11항에 있어서,
    상기 추정부는
    상기 최적화된 그래프를 이용하여 상기 실내 공간에 대응하는 맵을 생성하는 맵 생성부;
    레이저 스캐너를 이용하여 스캔된 데이터와 상기 생성된 맵을 매칭하는 정합부
    를 포함하는 실내 공간에서 로봇의 위치를 인식하는 장치.
  13. 제8항에 있어서,
    상기 추정된 로봇의 위치를 파티클 필터를 이용하여 필터링하는 필터
    를 더 포함하는 실내 공간에서 로봇의 위치를 인식하는 장치.
  14. 제8항에 있어서,
    상기 로봇에 설치된 적어도 하나의 센서는
    오도메트리(Odometry), 자이로스코프, LiDAR(Light Detection And Ranging) 또는 Camera 중 적어도 하나를 포함하는 실내 공간에서 로봇의 위치를 인식하는 장치.
KR1020160181389A 2016-12-28 2016-12-28 Qr 마커와 레이저 스캐너를 이용하여 광범위 실내 공간에서 로봇의 위치를 인식하기 위한 방법 및 장치 KR102041664B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160181389A KR102041664B1 (ko) 2016-12-28 2016-12-28 Qr 마커와 레이저 스캐너를 이용하여 광범위 실내 공간에서 로봇의 위치를 인식하기 위한 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160181389A KR102041664B1 (ko) 2016-12-28 2016-12-28 Qr 마커와 레이저 스캐너를 이용하여 광범위 실내 공간에서 로봇의 위치를 인식하기 위한 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20180076815A true KR20180076815A (ko) 2018-07-06
KR102041664B1 KR102041664B1 (ko) 2019-11-07

Family

ID=62921292

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160181389A KR102041664B1 (ko) 2016-12-28 2016-12-28 Qr 마커와 레이저 스캐너를 이용하여 광범위 실내 공간에서 로봇의 위치를 인식하기 위한 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102041664B1 (ko)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109491390A (zh) * 2018-11-23 2019-03-19 华中科技大学 基于多传感器的无轨化全向移动机器人系统及其控制方法
KR101999065B1 (ko) 2018-07-31 2019-07-10 조선대학교산학협력단 밀리라디안을 이용한 카메라와 피사체 간의 거리 측정 방법
CN110857858A (zh) * 2018-08-23 2020-03-03 上海智远弘业机器人有限公司 一种用于机器人二维码导航的路标
CN111026105A (zh) * 2019-10-18 2020-04-17 同济大学 一种移动式机器人现场定位系统及其控制方法
KR20200054118A (ko) * 2018-11-09 2020-05-19 한국과학기술원 카메라 캘리브레이션 방법 및 장치
CN113405544A (zh) * 2021-05-08 2021-09-17 中电海康集团有限公司 一种移动机器人的建图与定位方法及系统
CN113515112A (zh) * 2020-03-26 2021-10-19 顺丰科技有限公司 机器人移动方法、装置、计算机设备和存储介质
KR20230108997A (ko) * 2022-01-12 2023-07-19 네이버랩스 주식회사 시각적 측위방법,이를 이용하는 제어서버 및 건물
KR102564884B1 (ko) * 2022-08-19 2023-08-09 (주)모스텍 무인 반송차 및 무인 반송차의 이동 제어 방법
KR20240018811A (ko) 2022-08-03 2024-02-14 케이와이이앤아이 주식회사 위치 정보 획득용 표적 장치

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102176729B1 (ko) * 2020-02-05 2020-11-09 (주)에바 이동수단의 위치인식방법 및 위치인식시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5612524A (en) * 1987-11-25 1997-03-18 Veritec Inc. Identification symbol system and method with orientation mechanism
KR101106265B1 (ko) * 2010-11-05 2012-01-18 한국생산기술연구원 Rfid를 이용한 이동 로봇의 위치측정 장치 및 위치측정 방법
KR101323705B1 (ko) * 2013-06-05 2013-11-11 한경대학교 산학협력단 무인 화물 이송로봇을 이용한 무인 화물 이송시스템
KR20160147127A (ko) * 2015-06-11 2016-12-22 한국과학기술원 실외 환경에서의 강인한 위치 인식 방법 및 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5612524A (en) * 1987-11-25 1997-03-18 Veritec Inc. Identification symbol system and method with orientation mechanism
KR101106265B1 (ko) * 2010-11-05 2012-01-18 한국생산기술연구원 Rfid를 이용한 이동 로봇의 위치측정 장치 및 위치측정 방법
KR101323705B1 (ko) * 2013-06-05 2013-11-11 한경대학교 산학협력단 무인 화물 이송로봇을 이용한 무인 화물 이송시스템
KR20160147127A (ko) * 2015-06-11 2016-12-22 한국과학기술원 실외 환경에서의 강인한 위치 인식 방법 및 장치

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101999065B1 (ko) 2018-07-31 2019-07-10 조선대학교산학협력단 밀리라디안을 이용한 카메라와 피사체 간의 거리 측정 방법
CN110857858A (zh) * 2018-08-23 2020-03-03 上海智远弘业机器人有限公司 一种用于机器人二维码导航的路标
KR20200054118A (ko) * 2018-11-09 2020-05-19 한국과학기술원 카메라 캘리브레이션 방법 및 장치
CN109491390A (zh) * 2018-11-23 2019-03-19 华中科技大学 基于多传感器的无轨化全向移动机器人系统及其控制方法
CN111026105A (zh) * 2019-10-18 2020-04-17 同济大学 一种移动式机器人现场定位系统及其控制方法
CN113515112A (zh) * 2020-03-26 2021-10-19 顺丰科技有限公司 机器人移动方法、装置、计算机设备和存储介质
CN113405544A (zh) * 2021-05-08 2021-09-17 中电海康集团有限公司 一种移动机器人的建图与定位方法及系统
CN113405544B (zh) * 2021-05-08 2024-02-09 中电海康集团有限公司 一种移动机器人的建图与定位方法及系统
KR20230108997A (ko) * 2022-01-12 2023-07-19 네이버랩스 주식회사 시각적 측위방법,이를 이용하는 제어서버 및 건물
WO2023136495A1 (ko) * 2022-01-12 2023-07-20 네이버랩스 주식회사 시각적 측위방법, 이를 이용하는 제어서버 및 건물
KR20240018811A (ko) 2022-08-03 2024-02-14 케이와이이앤아이 주식회사 위치 정보 획득용 표적 장치
KR102564884B1 (ko) * 2022-08-19 2023-08-09 (주)모스텍 무인 반송차 및 무인 반송차의 이동 제어 방법

Also Published As

Publication number Publication date
KR102041664B1 (ko) 2019-11-07

Similar Documents

Publication Publication Date Title
KR102041664B1 (ko) Qr 마커와 레이저 스캐너를 이용하여 광범위 실내 공간에서 로봇의 위치를 인식하기 위한 방법 및 장치
US10006772B2 (en) Map production method, mobile robot, and map production system
CN113376650B (zh) 移动机器人定位方法及装置、电子设备及存储介质
JP2008076252A (ja) 自己位置認識システム
KR102547274B1 (ko) 이동 로봇 및 이의 위치 인식 방법
JP2010061655A (ja) 線形特徴を用いた対象追跡
US11506511B2 (en) Method for determining the position of a vehicle
CN114236564B (zh) 动态环境下机器人定位的方法、机器人、装置及存储介质
JP2010061484A (ja) 移動体および移動体の位置推定誤り状態からの復帰方法
JP2022524108A (ja) ロボット車両の積荷フットプリントの協働決定
US20160282875A1 (en) Moving object controller, landmark, and moving object control method
Donoso-Aguirre et al. Mobile robot localization using the Hausdorff distance
Dekan et al. Versatile approach to probabilistic modeling of Hokuyo UTM-30LX
Ye et al. Model-based offline vehicle tracking in automotive applications using a precise 3D model
CN116203579A (zh) 基于点云残差的激光雷达slam退化检测方法及系统
Cupec et al. Global localization based on 3d planar surface segments
US11055562B1 (en) Methods and systems for registering a three-dimensional pose of an object
Schueftan et al. Indoor mapping using SLAM for applications in Flexible Manufacturing Systems
JP6670712B2 (ja) 自己位置推定装置、移動体及び自己位置推定方法
Sun et al. Detection and state estimation of moving objects on a moving base for indoor navigation
Kim et al. Indoor localization using laser scanner and vision marker for intelligent robot
Li et al. Lidar-based vehicle detection for dynamic SLAM applications
WO2023139793A1 (ja) Slam装置、slam攻撃対策プログラムおよび自律型モビリティ
WO2024004265A1 (ja) 自己位置推定装置、自己位置推定方法、およびプログラム
KR102624644B1 (ko) 벡터 맵을 이용한 이동체의 맵 매칭 위치 추정 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right