KR20140003987A - 비젼 센서 정보와 모션 센서 정보를 융합한 모바일 로봇용 slam 시스템 - Google Patents

비젼 센서 정보와 모션 센서 정보를 융합한 모바일 로봇용 slam 시스템 Download PDF

Info

Publication number
KR20140003987A
KR20140003987A KR1020120107975A KR20120107975A KR20140003987A KR 20140003987 A KR20140003987 A KR 20140003987A KR 1020120107975 A KR1020120107975 A KR 1020120107975A KR 20120107975 A KR20120107975 A KR 20120107975A KR 20140003987 A KR20140003987 A KR 20140003987A
Authority
KR
South Korea
Prior art keywords
robot
information
processing device
sensor
map
Prior art date
Application number
KR1020120107975A
Other languages
English (en)
Other versions
KR101439921B1 (ko
Inventor
조동일
이태재
반욱
이창훈
김태일
장병문
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Publication of KR20140003987A publication Critical patent/KR20140003987A/ko
Application granted granted Critical
Publication of KR101439921B1 publication Critical patent/KR101439921B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Acoustics & Sound (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

환경에 대한 정보와 로봇의 이동 정보를 획득하는 비젼 센서 및 모션 센서; 비젼 센서와 모션센서의 정보를 처리하여 로봇의 위치를 추정하고, 특징점 정보 또는 공간 점유 정보를 계산하는 처리장치; 처리장치에서 계산된 정보를 이용하여 지도를 갱신하는 지도 작성 장치; 및 작성된 지도와 로봇의 위치를 바탕으로 로봇의 주행을 결정하는 주행 결정장치를 포함하는 이동로봇의 SLAM 시스템이 개시된다. 본 발명의 일 실시 예에 따른 비젼 센서 정보와 모션 센서 정보를 융합한 SLAM 시스템을 이용하면 로봇의 위치인식 및 지도 작성의 문제에서 시스템 전체의 정확도가 향상되는 이점이 있다.

Description

비젼 센서 정보와 모션 센서 정보를 융합한 모바일 로봇용 SLAM 시스템 {SLAM SYSTEM FOR MOBILE ROBOT BASED ON VISION SENSOR DATA AND MOTION SENSOR DATA FUSION}
본 발명은 비젼 센서 정보와 모션 센서 정보를 융합하여 고정확도의 위치인식 및 지도 작성(SLAM : Simultaneous Localization and Mapping)을 수행하는 시스템에 관한 것이다.
이동로봇은 극한 환경 또는 위험 지역에서 사람을 대신하여 작업을 수행할 수 있기 때문에 최근 많은 각광을 받고 있다. 또한 청소 로봇과 같이 자율적으로 집안을 돌아다니면서 가사 업무를 도와주는 가정용 이동로봇도 다수 보급되었다. 이동로봇이 자율적으로 이동하면서 임무를 수행하기 위해서는 자기 위치인식 및 환경에 대한 인식 기술이 필수적이며, 대표적인 위치인식 및 환경에 대한 인식 기술에는 SLAM(Simultaneous Localization and Mapping) 기법이 있다.
SLAM은 로봇이 미지의 환경을 돌아다니면서 로봇에 부착되어 있는 센서를 이용하여 스스로 위치를 인식하고 주변 환경에 대한 지도를 작성하는 작업으로 로봇의 자율주행을 위한 핵심 기술이다. SLAM 알고리즘은 초기 위치에서 주변 환경의 지도를 작성하고, 작성된 지도를 바탕으로 다시 이동한 로봇의 위치를 알아내는 과정을 반복하여 로봇의 위치와 주변 환경의 지도를 동시에 추정한다.
종래의 이동로봇의 SLAM 기술은 대부분 비젼 센서만을 이용하여 위치인식 및 환경에 대한 지도 작성을 수행한다. 하지만 비젼 센서는 로봇의 이동으로 인하여 신호의 번짐(blurring) 현상이 발생할 수 있으며, 동적인 환경에서 비젼 센서의 정확도가 감소하게 되는 문제점이 있다. 따라서 비젼 센서만을 이용하여 위치인식 및 지도 작성을 수행하게 될 경우 센서의 오차로 인하여 위치인식 및 지도 작성의 오차가 커지게 된다.
상기 문제를 해결하기 위하여 비젼센서 정보와 모션센서 정보를 융합하여 이동로봇의 위치인식 및 지도 작성을 수행하는 시스템을 제안한다. 카메라, 레이저 센서, 초음파 센서 등의 비젼 센서로부터 SLAM을 위한 비젼 정보를 획득할 수 있다. MEMS(Micro Electro Mechanical Systems) 기술의 발달로 저가의 관성센서를 손쉽게 구할 수 있으며, 일반적인 휠 로봇(wheeled robot)에는 엔코더가 장착되어 있다. 관성센서와 엔코더를 이용하면 로봇의 모션 정보를 손쉽게 획득할 수 있다. 본 발명은 비젼 정보와 모션 정보를 융합하여 정확도를 향상시킨 SLAM 방법을 제공하는 것이다.
전술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 이동로봇의 SLAM 시스템은 비젼 센서 정보와 모션 센서 정보를 융합한 SLAM 시스템으로서, 환경에 대한 정보를 획득하는 비젼 센서; 로봇의 모션정보를 획득하는 모션 센서; 상기 비젼 센서와 모션 센서의 정보를 처리하여 특징점 정보 또는 공간 점유 정보를 계산하고 로봇의 위치를 추정하는 처리장치; 상기 처리장치에서 추정한 로봇의 위치와 특징점 정보 또는 공간 점유 정보를 이용하여 지도를 작성하는 지도 작성 장치; 및 상기 로봇의 주행을 결정하는 주행 결정 장치를 포함한다.
상기 처리장치는, 단안 카메라, 양안 카메라, 레이저 센서 또는 초음파 센서 등으로 구성된 비젼 센서의 데이터를 처리하여 영상 내의 특징점 정보 혹은 공간 점유정보를 계산하고, 이 정보들과 작성된 지도를 이용하여 지도 내에서의 로봇의 위치를 추정하는 제 1 처리장치; 가속도 센서, 각속도 센서 또는 로봇 엔코더로 구성된 모션 센서의 데이터를 처리하여 로봇의 이동정보를 파악하는 제 2 처리장치; 및 제 1 처리장치에서 추정한 로봇의 위치 및 제 2 처리장치에서 파악한 로봇의 이동정보를 융합하여 로봇의 위치를 재추정하는 제 3 처리장치를 포함할 수 있다.
상기 제 1 처리장치에서 추정된 로봇의 위치는 비젼 센서의 정보만을 이용하여 계산한 로봇의 위치이다.
상기 제 2 처리장치에서 모션센서의 정보를 이용한 로봇의 이동정보는 가속도 센서 및 엔코더로부터 계산된 로봇의 병진운동 성분과 각속도 센서로부터 계산된 로봇의 회전운동 성분을 포함하는 정보가 될 수 있다.
상기 제 1 처리장치에서 비젼센서 정보를 이용한 로봇 위치와 상기 제 2 처리장치에서 모션센서 정보를 이용한 로봇의 이동정보의 계산 과정은 로봇 좌표계 기준의 센서 정보를 월드 좌표계 기준의 정보로 변환하는 과정을 포함할 수 있다.
상기 제 3 처리장치에서 추정하는 로봇의 위치는 제 1 처리장치에서 전송된 비젼센서의 정보만을 이용하여 계산된 로봇의 위치와, 제 2 처리장치에서 계산된 로봇의 이동 정보를 확률 기반의 데이터 융합 기법을 사용하여 재추정한 로봇의 위치가 될 수 있다.
상기 지도 작성 장치는 제 3 처리장치에서 제 1 처리장치의 정보와 제 2 처리장치의 정보를 융합하여 재추정한 로봇의 위치와 제 1 처리장치에서 획득한 특징점 정보 혹은 공간 점유 정보를 이용하여 지도를 확장 및 갱신할 수 있다.
상기 주행 결정 장치는 지도 작성 장치에서 갱신된 지도 및 제 3 처리장치에서 추정된 로봇의 위치를 기반으로 지도 작성의 완성을 위한 로봇의 주행 경로를 결정하여 로봇을 이동시킬 수 있다.
본 발명의 일 실시 예에 따른 비젼 센서 정보와 모션 센서 정보를 융합한 SLAM 시스템을 이용하면 로봇의 위치인식 및 지도 작성의 문제에서 시스템 전체의 정확도가 향상되는 이점이 있다. 구체적으로는, 비젼 센서 외에 모션 센서의 정보를 입력받기 때문에, 동적인 환경에서의 비젼 센서의 부정확성을 보상하여 로봇의 위치인식 성능이 향상되고, 위치인식 성능 향상은 지도 작성의 정확성 증가를 뜻하게 되며, 결국 SLAM 시스템 전체의 정확도가 향상된다.
도 1은 본 발명의 일 실시 예에 따른 비젼 센서와 모션 센서 정보를 융합한 SLAM 시스템의 동작을 개략적으로 나타낸 블록도.
도 2는 본 발명의 일 실시 예에 따른 비젼 센서와 모션 센서 정보를 융합한 SLAM 시스템의 방법을 도시한 순서도.
이하에서, 도면을 참조하여 본 발명의 바람직한 실시 예에 대하여 상세히 살펴본다.
도 1은 본 발명의 일 실시 예에 따른 비젼 센서와 모션 센서 정보를 융합한 SLAM 시스템의 동작을 개략적으로 나타낸 블록도이다.
도 1을 참조하면, 상기 실시 예에 따른 비젼 센서와 모션 센서 정보를 융합한 SLAM 시스템은 비젼 센서(110), 모션 센서(120), 처리장치(200), 지도 작성 장치(130), 주행 결정장치(140)를 포함하여 구성된다.
본 발명의 일 실시 예에서 비젼 센서(110)는 주변 환경을 파악하는 센서로 단안 카메라, 양안 카메라, 레이저 센서, 초음파 센서 등을 포함할 수 있다.
본 발명의 일 실시 예에서 모션센서(120)는 로봇의 모션을 감지하는 센서로 가속도센서, 각속도센서, 로봇에 부착된 엔코더 등을 포함할 수 있다.
본 발명의 일 실시 예에서 처리장치(200)는 제 1 처리장치(210), 제 2 처리장치(220), 제 3 처리장치(230)를 포함하여 구성된다.
제 1 처리장치(210)는 비젼 센서(110)로부터 입력되는 주변 환경에 대한 정보를 처리하는 장치이다. 비젼 센서(110)가 단안 카메라 혹은 양안 카메라 등으로 구성되는 경우 제 1 처리장치(210)는 입력된 영상의 특징점을 추출하고, 작성된 특징점 지도의 랜드마크들과의 비교를 통하여 영상 내의 랜드마크의 위치를 검출하고, 새로운 랜드마크를 식별하는 작업을 포함할 수 있다. 미리 위치를 알고 있는 랜드마크가 영상 내에 검출되면, 미리 작성된 특징점 지도를 이용하여 로봇의 위치를 계산할 수 있다. 비젼 센서(110)가 레이저 혹은 초음파 등의 센서로 구성될 경우에는 입력된 데이터를 처리하여 로봇 좌표계 기준의 공간상의 점유를 결정하여 작성된 점유 지도를 이용하여 로봇의 위치를 계산할 수 있다.
비젼 센서(110)로부터 입력된 데이터를 처리하여 추정된 로봇의 위치정보는 제3 처리장치(230)로 전송된다. 제 1 처리장치(210)에서 검출된 특징점 정보 또는 공간 점유 정보 또한 제3 처리장치(230)로 전송된다.
제 2 처리장치(220)는 모션 센서(120)로부터 입력되는 로봇의 이동(odometry)에 대한 정보를 처리하는 장치로 로봇의 이동정보를 계산하는 장치이다. 모션 센서(120)는 가속도 센서, 각속도 센서, 로봇의 엔코더 등을 포함하여 구성될 수 있는데, 가속도 센서 혹은 엔코더 정보를 이용하여 로봇의 병진운동 성분을 계산할 수 있으며 각속도 센서를 이용하여 로봇의 회전운동 성분을 계산할 수 있다. 계산된 로봇의 이동정보는 제 3 처리장치(230)로 전송된다.
제 1 처리장치에서 비젼센서 정보를 이용한 로봇 위치와 제 2 처리장치에서 모션센서 정보를 이용한 로봇의 이동정보의 계산 과정에는 로봇 좌표계 기준의 센서 정보를 월드 좌표계 기준의 정보로 변환하는 과정을 포함한다.
제 3 처리장치(230)는 제 1 처리장치(210)에서 계산된 로봇의 위치와 제 2 처리장치(220)에서 계산된 로봇의 이동정보를 융합하여 로봇의 위치를 재추정하는 장치이다. 비젼센서 정보와 모션센서 정보의 융합을 통하여 로봇 위치 추정의 정확도가 향상된다. 정보를 융합하는 과정은 확률 기반 추정 과정을 포함할 수 있으며, 칼만 필터, 확장 칼만 필터, 파티클 필터, 언센티드(Uncented) 칼만 필터 등을 이용할 수 있다. 제 3 처리장치(230)에서는 추정된 로봇의 위치와 제 1 처리장치(210)에서 입력된 특징점 정보 또는 공간 점유 정보를 지도 작성 장치(130)로 전송한다.
본 발명의 일 실시 예에서, 지도 작성 장치(130)는 제 3 처리장치(230)에서 입력된 로봇의 위치와 제 1 처리장치에서 계산된 특징점 정보 또는 공간 점유 정보를 바탕으로 환경에 대한 지도를 갱신하는 장치이다. 초기 지도가 작성되지 않은 상태라면, 입력된 특징점 정보 또는 공간 점유 정보를 바탕으로 지도를 작성하기 시작하고, 지도를 작성하는 중에 있다면 현재까지 작성된 지도와 지도 내의 로봇의 위치, 입력된 특징점 정보 또는 점유 정보를 이용하여 지도를 갱신하는 작업을 포함할 수 있다.
본 발명의 일 실시 예에서, 주행 결정 장치(140)는 로봇의 지도 작성을 위하여 로봇의 주행을 결정하는 장치이다. 지도를 작성하는 중에 있다면, 작성된 지도 상에서 미지의 환경을 향하여 로봇을 주행 시키는 방법 등을 포함할 수 있다.
도 2는 본 발명의 일 실시 예에 따른 이동로봇의 SLAM 방법을 도시한 순서도 이다.
도 2를 참조하면, 본 발명의 SLAM 방법은 비젼센서 정보와 모션센서 정보를 융합한 SLAM 방법으로서, 우선, 비젼센서(110) 및 모션센서(120)의 데이터를 처리장치(200)로 전송한다(S210). 비젼센서(110)의 데이터는 제 1 처리장치(210)로 전송되며, 모션센서 정보는 제 2 처리장치(220)로 전송된다.
다음으로, 비젼센서(110)와 모션센서(120)에서 전송된 데이터를 처리하여 로봇의 위치를 추정한다(S220). 로봇의 위치를 추정하는 과정은 제 1 처리장치에서 비젼센서(110) 정보만을 이용하여 로봇의 위치를 계산하는 과정과, 제 2 처리장치에서 모션센서(120) 정보를 이용하여 로봇의 이동정보를 계산하는 과정과, 제 1 처리장치(210)와 제 2 처리장치(220)에서 계산된 정보를 확률기반의 데이터 융합 기법을 이용하여 로봇의 위치를 재추정하는 과정을 포함한다.
이어서, 지도 작성장치(130)에서 추정된 로봇의 위치와 제 1 처리장치(210)에서 계산된 비젼 정보를 이용하여 지도를 작성한다(S230). 제 1 처리장치(210)에서 계산된 비젼 정보란 비젼센서(110)의 데이터를 처리하여 계산한 특징점 정보 또는 공간 점유 정보를 포함한다.
다음으로, 주행 결정 장치(140)에서 작성된 지도를 바탕으로 로봇의 주행을 결정하고 로봇을 주행시킨다(S240). 로봇의 주행을 결정하는 방법에는 작성된 지도상의 미지의 환경을 향해 로봇을 주행시키는 방법 등을 포함할 수 있다.
다음으로, 지도 작성이 완성되었는지를 판단한 후(S250) 지도작성이 완료되지 않았다면 상기 과정을 지도작성이 완료될 때까지 수행한다. 지도작성이 완료되면 전체 과정이 종료된다.
110: 비젼 센서
120: 모션 센서
130: 지도 작성 장치
140: 주행 결정 장치
200: 처리장치
210: 제 1 처리 장치
220: 제 2 처리 장치
230: 제 3 처리 장치

Claims (8)

  1. 비젼 센서 정보와 모션 센서 정보를 융합한 SLAM 시스템에 있어서,
    환경에 대한 정보를 획득하는 비젼 센서;
    로봇의 모션정보를 획득하는 모션 센서;
    상기 비젼 센서와 모션 센서의 정보를 처리하여 특징점 정보 또는 공간 점유 정보를 계산하고 로봇의 위치를 추정하는 처리장치;
    상기 처리장치에서 추정한 로봇의 위치와 특징점 정보 또는 공간 점유 정보를 이용하여 지도를 작성하는 지도 작성 장치; 및
    상기 로봇의 주행을 결정하는 주행 결정 장치를 포함하는 것을 특징으로 하는 이동로봇의 SLAM 시스템.
  2. 제1항에 있어서,
    상기 처리장치는 단안 카메라, 양안 카메라, 레이저 센서 또는 초음파 센서로 구성된 비젼 센서의 데이터를 처리하여 랜드마크의 특징점 정보 혹은 공간 점유정보를 이용하여 작성된 지도 내에서의 로봇의 위치를 추정하는 제 1 처리장치;
    가속도 센서, 각속도 센서 또는 로봇 엔코더로 구성된 모션 센서의 데이터를 처리하여 로봇의 이동정보를 파악하는 제 2 처리장치; 및
    제 1 처리장치에서 추정한 로봇의 위치 및 제 2 처리장치에서 파악한 로봇의 이동정보를 융합하여 로봇의 위치를 다시 추정하는 제 3 처리장치를 포함하는 것을 특징으로 하는 이동로봇의 SLAM 시스템.
  3. 제2항에 있어서,
    상기 제 1 처리장치에서 추정된 로봇의 위치는 비젼 센서의 정보만을 이용하여 계산한 로봇의 위치인 것을 특징으로 하는 이동로봇의 SLAM 시스템.
  4. 제2항에 있어서,
    상기 제 2 처리장치에서 모션센서의 정보를 이용한 로봇의 이동정보는 가속도 센서 및 엔코더로부터 계산된 로봇의 병진운동 성분과 각속도 센서로부터 계산된 로봇의 회전운동 성분을 포함하는 정보인 것을 특징으로 하는 이동로봇의 SLAM 시스템.
  5. 제2항에 있어서,
    상기 제 1 처리장치에서 비젼센서 정보를 이용한 로봇 위치와 상기 제 2 처리장치에서 모션센서 정보를 이용한 로봇의 이동정보의 계산 과정은 로봇 좌표계 기준의 센서 정보를 월드 좌표계 기준의 정보로 변환하는 과정을 포함하는 것을 특징으로 하는 이동로봇의 SLAM 시스템.
  6. 제2항에 있어서,
    상기 제 3 처리장치에서 추정하는 로봇의 위치는 제 1 처리장치에서 전송된 비젼센서의 정보만을 이용하여 계산된 로봇의 위치와, 제 2 처리장치에서 계산된 로봇의 이동 정보를 확률 기반의 데이터 융합 기법을 사용하여 추정한 로봇의 위치인 것을 특징으로 하는 이동로봇의 SLAM 시스템.
  7. 제1항에 있어서,
    상기 지도 작성 장치는 제 3 처리장치에서 추정된 로봇의 위치와 제 1 처리장치에서 획득한 특징점 정보 혹은 공간 점유 정보를 이용하여 지도를 갱신하는 것을 특징으로 하는 이동로봇의 SLAM 시스템.
  8. 제1항에 있어서,
    상기 주행 결정 장치는 지도 작성 장치에서 갱신된 지도 및 제 3 처리장치에서 추정된 로봇의 위치를 기반으로 지도 작성의 완성을 위한 로봇의 주행 경로를 결정하여 로봇을 이동시키는 것을 특징으로 하는 이동로봇의 SLAM 시스템.
KR1020120107975A 2012-06-25 2012-09-27 비젼 센서 정보와 모션 센서 정보를 융합한 모바일 로봇용 slam 시스템 KR101439921B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120068117 2012-06-25
KR20120068117 2012-06-25

Publications (2)

Publication Number Publication Date
KR20140003987A true KR20140003987A (ko) 2014-01-10
KR101439921B1 KR101439921B1 (ko) 2014-09-17

Family

ID=50140245

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120107975A KR101439921B1 (ko) 2012-06-25 2012-09-27 비젼 센서 정보와 모션 센서 정보를 융합한 모바일 로봇용 slam 시스템

Country Status (1)

Country Link
KR (1) KR101439921B1 (ko)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101536353B1 (ko) * 2014-07-16 2015-07-14 주식회사 매크론 동작인식 장난감
CN107204015A (zh) * 2017-05-27 2017-09-26 中山大学 基于色彩图像和红外图像融合的即时定位与建图系统
CN108279688A (zh) * 2018-03-29 2018-07-13 西北农林科技大学 一种农业机器人定位系统
CN108337915A (zh) * 2017-12-29 2018-07-27 深圳前海达闼云端智能科技有限公司 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品
CN108401461A (zh) * 2017-12-29 2018-08-14 深圳前海达闼云端智能科技有限公司 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品
KR102033075B1 (ko) 2018-10-05 2019-10-16 (주)한국플랫폼서비스기술 딥러닝을 이용한 위치정보 시스템 및 그 제공방법
KR102162439B1 (ko) * 2019-12-17 2020-10-06 에스케이텔레콤 주식회사 자율이동지원장치 및 자율이동지원장치의 동작 방법
WO2021112362A1 (ko) * 2019-12-06 2021-06-10 한국로봇융합연구원 공분산 행렬 기반의 다중 위치인식 결과 융합을 통한 강화 위치인식 방법과 시스템
CN114147717A (zh) * 2021-12-09 2022-03-08 乐聚(深圳)机器人技术有限公司 机器人运动轨迹估计方法、装置、控制器及存储介质
KR20220060283A (ko) * 2020-11-04 2022-05-11 포항공과대학교 산학협력단 수중 물체에 대한 3차원 광학 체적 모델을 획득하는 방법 및 시스템
KR20220060284A (ko) * 2020-11-04 2022-05-11 포항공과대학교 산학협력단 수중 물체에 대한 3차원 음향 체적 모델을 획득하는 방법 및 시스템
KR20230079670A (ko) 2021-11-29 2023-06-07 전진택 농업용 자율주행 로봇을 위한 경로 추종 장치 및 방법
KR102631313B1 (ko) * 2023-06-08 2024-01-31 (주)인티그리트 Slam 기술 구현을 위한 비전 데이터 및 라이다 데이터 간의 실시간 분석 및 대조를 통해 위치 오차 보정이 가능한 장치
KR102631315B1 (ko) * 2023-06-08 2024-02-01 (주)인티그리트 Slam 기술 구현을 위한 비전 데이터 및 라이다 데이터 간의 실시간 분석 및 대조를 통해 위치 오차 보정이 가능한 시스템

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101988555B1 (ko) 2017-12-05 2019-06-12 충북대학교 산학협력단 조명 불변 영상을 사용한 slam 시스템 및 점구름 지도 생성 방법
WO2020251100A1 (ko) * 2019-06-14 2020-12-17 엘지전자 주식회사 퓨전 슬램에서 맵을 업데이트하는 방법 및 이를 구현하는 로봇
KR20240064449A (ko) 2022-11-04 2024-05-13 주식회사 벰소프트 라이다를 이용하는 주행로봇의 위치 측정을 위한 패턴 매칭 방법 및 이를 수행하는 프로그램이 기록된 컴퓨터 판독이 가능한 기록매체
KR20240073270A (ko) * 2022-11-17 2024-05-27 재단법인대구경북과학기술원 로봇 및 로봇의 위치 추정방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101542498B1 (ko) * 2009-03-02 2015-08-06 엘지전자 주식회사 로봇 청소기 및 그의 위치 검출 방법

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101536353B1 (ko) * 2014-07-16 2015-07-14 주식회사 매크론 동작인식 장난감
CN107204015A (zh) * 2017-05-27 2017-09-26 中山大学 基于色彩图像和红外图像融合的即时定位与建图系统
CN107204015B (zh) * 2017-05-27 2021-06-08 中山大学 基于色彩图像和红外图像融合的即时定位与建图系统
CN108337915A (zh) * 2017-12-29 2018-07-27 深圳前海达闼云端智能科技有限公司 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品
CN108401461A (zh) * 2017-12-29 2018-08-14 深圳前海达闼云端智能科技有限公司 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品
WO2019127445A1 (zh) * 2017-12-29 2019-07-04 深圳前海达闼云端智能科技有限公司 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品
WO2019127347A1 (zh) * 2017-12-29 2019-07-04 深圳前海达闼云端智能科技有限公司 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品
CN108279688A (zh) * 2018-03-29 2018-07-13 西北农林科技大学 一种农业机器人定位系统
KR102033075B1 (ko) 2018-10-05 2019-10-16 (주)한국플랫폼서비스기술 딥러닝을 이용한 위치정보 시스템 및 그 제공방법
WO2021112362A1 (ko) * 2019-12-06 2021-06-10 한국로봇융합연구원 공분산 행렬 기반의 다중 위치인식 결과 융합을 통한 강화 위치인식 방법과 시스템
KR102162439B1 (ko) * 2019-12-17 2020-10-06 에스케이텔레콤 주식회사 자율이동지원장치 및 자율이동지원장치의 동작 방법
KR20220060283A (ko) * 2020-11-04 2022-05-11 포항공과대학교 산학협력단 수중 물체에 대한 3차원 광학 체적 모델을 획득하는 방법 및 시스템
KR20220060284A (ko) * 2020-11-04 2022-05-11 포항공과대학교 산학협력단 수중 물체에 대한 3차원 음향 체적 모델을 획득하는 방법 및 시스템
KR20230079670A (ko) 2021-11-29 2023-06-07 전진택 농업용 자율주행 로봇을 위한 경로 추종 장치 및 방법
CN114147717A (zh) * 2021-12-09 2022-03-08 乐聚(深圳)机器人技术有限公司 机器人运动轨迹估计方法、装置、控制器及存储介质
CN114147717B (zh) * 2021-12-09 2024-05-24 乐聚(深圳)机器人技术有限公司 机器人运动轨迹估计方法、装置、控制器及存储介质
KR102631313B1 (ko) * 2023-06-08 2024-01-31 (주)인티그리트 Slam 기술 구현을 위한 비전 데이터 및 라이다 데이터 간의 실시간 분석 및 대조를 통해 위치 오차 보정이 가능한 장치
KR102631315B1 (ko) * 2023-06-08 2024-02-01 (주)인티그리트 Slam 기술 구현을 위한 비전 데이터 및 라이다 데이터 간의 실시간 분석 및 대조를 통해 위치 오차 보정이 가능한 시스템

Also Published As

Publication number Publication date
KR101439921B1 (ko) 2014-09-17

Similar Documents

Publication Publication Date Title
KR101439921B1 (ko) 비젼 센서 정보와 모션 센서 정보를 융합한 모바일 로봇용 slam 시스템
TWI827649B (zh) 用於vslam比例估計的設備、系統和方法
US10788830B2 (en) Systems and methods for determining a vehicle position
ES2770730T3 (es) Localización dentro de un entorno usando fusión de sensores
US10006772B2 (en) Map production method, mobile robot, and map production system
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN107328418B (zh) 移动机器人在陌生室内场景下的核辐射探测路径自主规划方法
KR101739996B1 (ko) 이동 로봇 및 이동 로봇의 위치 인식 및 지도 작성 방법
KR101598385B1 (ko) 직선 정보 기반 장소 인식을 이용한 로봇의 자율주행 방법 및 자율 주행 로봇
KR101423139B1 (ko) 3차원 직선을 이용하여 위치를 인식하고 지도를 생성하는 방법 및 그 방법에 따른 이동체
KR20170088228A (ko) 다중로봇의 자기위치인식에 기반한 지도작성 시스템 및 그 방법
CN104811683A (zh) 用于估计位置的方法和设备
KR20150144727A (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP2008275606A (ja) 自律移動体のための物体認識装置
KR102219843B1 (ko) 자율주행을 위한 위치 추정 장치 및 방법
KR20130073476A (ko) 이동 장치 및 이동 장치의 위치 인식 방법
RU2740229C1 (ru) Способ локализации и построения навигационных карт мобильного сервисного робота
KR20180066618A (ko) 자율주행차량을 위한 거리 데이터와 3차원 스캔 데이터의 정합 방법 및 그 장치
US20190331496A1 (en) Locating a vehicle
CN113175925A (zh) 定位与导航系统以及方法
JP7275553B2 (ja) 移動体、移動体の制御方法及びプログラム
KR100784125B1 (ko) 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법
JP2008276731A (ja) 自律移動体の経路設定装置
Chen et al. Perception system design for low-cost commercial ground robots: Sensor configurations, calibration, localization and mapping
WO2021246170A1 (ja) 情報処理装置、情報処理システム、および方法、並びにプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170824

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180820

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190917

Year of fee payment: 6