KR102329674B1 - 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법 및 이를 구현하는 로봇 - Google Patents

고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법 및 이를 구현하는 로봇 Download PDF

Info

Publication number
KR102329674B1
KR102329674B1 KR1020170043923A KR20170043923A KR102329674B1 KR 102329674 B1 KR102329674 B1 KR 102329674B1 KR 1020170043923 A KR1020170043923 A KR 1020170043923A KR 20170043923 A KR20170043923 A KR 20170043923A KR 102329674 B1 KR102329674 B1 KR 102329674B1
Authority
KR
South Korea
Prior art keywords
robot
fixed
map
information
sensing
Prior art date
Application number
KR1020170043923A
Other languages
English (en)
Other versions
KR20180112622A (ko
Inventor
손병곤
이창현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020170043923A priority Critical patent/KR102329674B1/ko
Publication of KR20180112622A publication Critical patent/KR20180112622A/ko
Application granted granted Critical
Publication of KR102329674B1 publication Critical patent/KR102329674B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법 및 이를 구현하는 로봇에 관한 것으로, 본 발명의 일 실시예에 의한 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법은 로봇의 센싱 모듈이 외부에 배치된 객체를 센싱하는 단계, 로봇의 제어부는 센싱된 객체의 특성 정보에 기반하여 센싱된 객체 중에서 이동 객체를 식별하는 단계, 및 제어부는 이동 객체를 제외하고 센싱 모듈이 고정 객체로 센싱한 정보에 기반하여 로봇의 현재 위치를 설정하는 단계를 포함한다.

Description

고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법 및 이를 구현하는 로봇{METHOD OF CONFIGURING POSITION BASED ON IDENTIFICATION OF FIXED OBJECT AND MOVING OBJECT AND ROBOT IMPLEMENTING THEREOF}
본 발명은 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법 및 이를 구현하는 로봇에 관한 기술이다.
공항, 학교, 관공서, 호텔, 사무실, 공장, 체육관, 공연장과 같은 문화시설 등 인적, 물적 교류가 활발하게 발생하는 공간에서 로봇이 동작하기 위해서는 전체 공간에 대한 맵을 가져야 한다. 한편, 맵은 일정한 시점을 기준으로 작성된 것이며, 해당 공간에는 사람과 사물들이 빈번하게 등장하여 이동하고 사라지는 상황이 발생한다.
특히, 공항이나 항만, 기차역과 같이 다수의 사람들이 이동하는 공간에서는 사람들의 이동이 잦으며, 이 과정에서 로봇은 외부의 객체를 센싱하는 과정에서 사람과 구조물(벽, 문 등)을 구별하지 못하는 경우가 발생한다.
사람을 구조물로 판단할 경우 전체 공간의 맵을 보유한 로봇은 자신의 위치를 산출함에 있어서 오차가 발생할 수 있다. 특히, 벽과 같은 구조물에 인접하여 존재하는 사물 혹은 사람들에 대해 로봇은 맵 상의 구조물과 동일한 것으로 판단하여 결과적으로 로봇의 위치에 있어 오차가 누적되는 문제가 발생한다. 따라서, 이러한 문제점을 해결하기 위해, 본 명세서에서는 로봇이 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법과 이를 구현하는 로봇을 제하고자 한다.
본 명세서에서는 전술한 문제점을 해결하기 위한 것으로, 로봇이 외부의 다양한 이동 객체들과 고정 객체를 센싱하는 과정에서 이동 객체들, 특히 사람과 같이 이동성이 높은 객체 정보를 로봇의 주행 및 위치 확정에 적용하지 않도록 하여 로봇의 주행 및 위치 확인의 정확성을 높이는 방법 및 이를 구현하는 장치를 제공하고자 한다.
본 명세서에서는 이동 객체들의 위치 정보 뿐만 아니라 온도, 색상, 재질과 같은 특성 정보에 기반하여 외부의 객체가 이동성을 가지는지 식별하고, 로봇이 SLAM 동작을 수행하는 과정에서 적용할 외부 객체의 정보에서 노이즈를 제거하여 로봇의 주행 및 위치 확인의 정확성을 높이는 방법 및 이를 구현하는 장치를 제공하고자 한다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
본 발명의 일 실시예에 의한 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법은 로봇의 센싱 모듈이 외부에 배치된 객체를 센싱하는 단계, 로봇의 제어부는 센싱된 객체의 특성 정보에 기반하여 센싱된 객체 중에서 이동 객체를 식별하는 단계, 및 제어부는 이동 객체를 제외하고 센싱 모듈이 고정 객체로 센싱한 정보에 기반하여 로봇의 현재 위치를 설정하는 단계를 포함한다.
본 발명의 다른 실시예에 의한 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 로봇은 로봇을 이동시키는 이동부, 외부에 배치된 객체를 센싱하는 센싱 모듈, 고정 객체의 위치 정보를 저장하는 고정맵을 포함하는 맵 저장부, 및 센싱된 객체의 특성 정보에 기반하여 센싱된 객체 중에서 이동 객체를 식별하여, 이동 객체를 제외하고 센싱 모듈이 고정 객체로 센싱한 정보에 기반하여 로봇의 현재 위치를 설정하는 제어부를 포함한다.
본 발명의 실시예들을 적용할 경우, 로봇은 라이다 센싱부를 이용하여 SLAM을 수행하는 과정에서 고정된 장애물들로부터 검출되는 라이다 거리 정보값만을 사용하여 로봇의 정확한 위치를 추정할 수 있다.
본 발명의 실시예들을 적용할 경우, 움직이는 사람들을 제외한 고정된 장애물만을 로봇의 위치를 확정하는 매칭 대상으로 보고 SLAM 의 입력으로 사용하여 로봇의 위치인식 성능을 향상시킬 수 있다.
본 발명의 실시예들을 적용할 경우, 고정된 객체와 이동하는 객체를 식별할 수 있으며, 이로 인해 로봇은 고정된 객체에 기반하여 위치를 인식하므로 로봇의 위치인식의 정확도를 향상시키며 주행의 성능을 향상시킬 수 있다.
본 발명의 효과는 전술한 효과에 한정되지 않으며, 본 발명의 당업자들은 본 발명의 구성에서 본 발명의 다양한 효과를 쉽게 도출할 수 있다.
도 1은 본 발명의 일 실시예에 의한 로봇을 구성하는 구성요소를 보여주는 도면이다.
도 2는 본 발명의 일 실시예에 의한 맵의 실시예를 보여주는 도면이다.
도 3은 이동객체가 배치되는 경우 위치의 오류가 발생하는 과정을 보여주는 도면이다.
도 4는 도 3의 과정에서 로봇이 맵 상의 로봇 위치를 잘못 계산한 상황과 이를 교정하는 것을 보여주는 도면이다.
도 5는 본 발명의 일 실시예에 의한 로봇이 이동 객체의 일 실시예인 사람을 식별하여 SLAM 매칭 과정을 보여주는 도면이다.
도 6은 본 발명의 일 실시예에 의한 온도 센싱부가 사람을 감지하는 경우 뎁스 센싱부를 이용하여 고정 객체까지의 거리를 식별하는 과정을 보여주는 도면이다.
도 7은 본 발명의 일 실시예에 의한 사람 뒤의 벽의 위치에 따라 제어부가 달리 동작하는 과정을 보여주는 도면이다.
도 8은 본 발명의 일 실시예에 의한 로봇이 외부의 객체가 이동 객체인지 고정 객체인지를 식별하여 로봇의 현재 위치를 설정하는 과정을 보여주는 도면이다.
도 9는 본 발명의 일 실시예에 의한 라이다 센싱부가 후방의 고정 객체가 배치되었는지를 식별하는 도면이다.
도 10은 로봇이 맵을 이용하여 현재 위치를 확인하는 과정을 보여주는 도면이다.
도 11은 본 발명의 일 실시예에 의한 객체의 재질 정보에 기반하여 로봇이 현재 위치를 설정하는 과정을 보여주는 도면이다.
도 12는 본 발명의 일 실시예에 의한 색상 정보가 반영된 고정맵을 보여주는 도면이다.
도 13은 본 발명의 다른 실시예에 의한 객체의 색상 정보에 기반하여 로봇이 현재 위치를 설정하는 과정을 보여주는 도면이다.
도 14는 본 발명의 일 실시예에 의한 색상 정보가 반영된 임시맵의 구성을 보여주는 도면이다.
도 15는 본 발명의 일 실시예에 의한 로봇이 고정 객체를 확인할 수 없는상태에서 현재 위치를 설정하는 도면이다.
이하, 도면을 참조하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다. 또한, 본 발명의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다.
본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 다른 구성 요소가 "개재"되거나, 각 구성 요소가 다른 구성 요소를 통해 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.
또한, 본 발명을 구현함에 있어서 설명의 편의를 위하여 구성요소를 세분화하여 설명할 수 있으나, 이들 구성요소가 하나의 장치 또는 모듈 내에 구현될 수도 있고, 혹은 하나의 구성요소가 다수의 장치 또는 모듈들에 나뉘어져서 구현될 수도 있다.
이하, 본 명세서에서 로봇은 특정한 목적(청소, 보안, 모니터링, 안내 등)을 가지거나 혹은 로봇이 이동하는 공간의 특성에 따른 기능을 제공하며 이동하는 장치를 포함한다. 따라서, 본 명세서에서의 로봇은 소정의 정보와 센서를 이용하여 이동할 수 있는 이동수단을 보유하며 소정의 기능을 제공하는 장치를 통칭한다.
본 명세서에서 로봇은 맵을 보유하면서 이동할 수 있다. 맵은 공간에서 이동하지 않는 것으로 확인된 고정된 벽, 계단 등에 대한 정보를 의미한다. 전술한 고정된 벽, 계단 등은 모두 고정 객체로 맵 상에 제시된다.
로봇이 보유하는 맵은 고정 객체의 위치를 저장할 수 있다. 또한 추가적으로 고정 객체의 위치뿐만 아니라 고정 객체의 특성 정보도 함께 저장할 수 있다. 예를 들어 고정 객체의 재질, 색상 등 로봇이 센싱할 수 있는 고정 객체의 특징 정보도 맵 상에 저장된다.
본 명세서에서 로봇은 맵을 생성하고 이에 따라 주행하는 실시예로 SLAM(Simultaneous localization and mapping) 방식을 사용할 수 있다. 그리고 SLAM 방식으로 생성한 맵을 저장하고 추후 이동하면서 저장된 맵을 이용할 수 있다. SLAM 방식으로 이동하는 과정에서 로봇은 외부의 새로운 사물을 센싱할 경우, 센싱한 사물이 맵 상의 고정 객체인지 아니면 이동 객체인지를 식별하여 주행하는 것이 필요하다. SLAM 방식에 의해 로봇은 자신의 위치를 확인할 수 있다.
본 명세서에서는 다양한 객체들이 이동하거나 배치되는 공간에서 다양한 이동 객체들이 위치를 변경하거나 혹은 고정 객체와 근접하여 배치되는 경우 로봇이 이들을 고정 객체와 구별하여 식별할 수 있도록 하여 맵 및 주변의 사물들에 기반한 SLAM 방식의 주행 과정에서 오차가 발생하지 않도록 한다.
도 1은 본 발명의 일 실시예에 의한 로봇을 구성하는 구성요소를 보여주는 도면이다.
로봇(1000)은 외부에 배치되는 이동 객체 혹은 고정 객체를 센싱하는 센싱모듈(100), 다양한 종류의 맵을 저장하는 맵 저장부(200), 로봇의 이동을 제어하는 이동부(300), 로봇의 소정의 기능을 수행하는 기능부(400), 다른 로봇 또는 서버와 맵 또는 이동 객체, 고정 객체, 혹은 외부의 변동되는 상황에 관한 정보를 송수신하는 통신부(500), 그리고 이들 각각의 구성요소들을 제어하는 제어부(900)를 포함한다.
도 1에서는 로봇의 구성을 계층적으로 구성하고 있으나, 이는 로봇의 구성요소들을 논리적으로 나타낸 것에 의해서이며, 물리적 구성은 이와 다를 수 있다. 하나의 물리적 구성요소에 다수의 논리적 구성요소가 포함되거나, 다수의 물리적 구성요소가 하나의 논리적 구성요소를 구현할 수 있다.
센싱모듈(100)는 외부의 객체들을 센싱하여 센싱한 정보를 제어부(900)에게 제공한다. 일 실시예로 센싱모듈(100)는 로봇의 현재 위치에서 벽, 유리, 금속성 문 등 외부 객체들의 재질과 거리를 신호의 강도(intensity)와 반사된 시간(속도)로 산출하는 라이다(Lidar) 센싱부(110)를 포함할 수 있다. 또한, 센싱모듈(100)는 로봇(1000)으로부터 일정 거리 내에 배치된 객체들의 온도 정보를 산출하는 온도 센싱부(120)를 포함할 수 있다. 온도 센싱부(120)의 일 실시예는 로봇(1000)으로부터 일정 거리 내에 배치된 사물의 온도, 특히 사람들의 체온을 감지하는 적외선 센서를 포함한다. 적외선 어레이 센서(Infrared Array sensor)로 온도 센싱부(120)를 구성할 경우 접촉 없이도 객체의 온도를 센싱할 수 있다. 적외선 센서 혹은 적외선 어레이 센서가 온도 센싱부(120)를 구성할 경우, 이동 객체가 사람인지 여부를 확인하는 주요한 정보를 제공한다.
뿐만 아니라, 센싱모듈(100)는 전술한 센싱부들 외에 로봇과 외부 객체와의 뎁스 정보를 산출하는 뎁스 센싱부(130) 및 비전 센싱부(140)를 더 포함할 수 있다.
뎁스 센싱부(130)는 뎁스 카메라를 포함할 수 있다. 뎁스 센싱부(130)는 로봇과 외부 객체 사이의 거리를 판단할 수 있도록 하는데, 특히 라이다 센싱부(110)와 결합하여 외부 객체와 로봇 사이의 거리의 센싱 정확도를 높일 수 있다.
비전 센싱부(140)는 카메라를 포함할 수 있다. 비전 센싱부(140)는 로봇의 주변의 객체들의 이미지를 촬영할 수 있다. 특히, 로봇은 고정 객체와 같이 변화가 많지 않은 이미지와 이동 객체가 배치된 이미지를 구분하여 외부의 객체가 이동 객체인지를 식별할 수 있다.
그 외에도 열감지 센싱부, 초음파 센싱부 등을 일 실시예로 하는 보조 센싱부(145)가 다수 배치될 수 있다. 이들 보조 센싱부들은 맵을 생성하거나 외부 객체를 센싱하는데 필요한 보조적인 센싱 정보를 제공한다. 또한, 이들 보조 센싱부들 역시 로봇이 주행함에 있어 외부에 배치되는 객체를 센싱하여 정보를 제공한다.
센싱 데이터 분석부(150)는 다수의 센싱부들이 센싱한 정보들을 분석하여 이를 제어부(900)에게 전달한다. 예를 들어 다수의 센싱부들에 의해 외부에 배치된 객체가 감지될 경우, 해당 객체의 특성과 거리에 대한 정보를 각각의 센싱부가 제공할 수 있다. 센싱 데이터 분석부(150)는 이들의 값을 조합하여 산출하고 이를 제어부(900)에게 전달할 수 있다.
맵 저장부(200)는 로봇이 이동하는 공간에 배치되는 객체들의 정보를 저장한다. 맵 저장부(200)는 로봇이 이동하는 전체 공간에 배치되는 객체들 중에서 변동이 없거나 혹은 고정되어 배치되는 고정 객체들에 대한 정보를 저장하는 고정맵(210)을 포함한다. 고정맵(210)은 공간에 따라 필수적으로 하나가 포함될 수 있다. 고정맵(210)은 해당 공간에서 가장 변동이 낮은 객체들만 배치된 것이므로, 로봇이 해당 공간을 이동할 경우 맵(210)에서 지시하는 객체들보다는 더 많은 객체를 센싱할 수 있다.
고정맵(210)은 고정 객체들의 위치 정보를 필수적으로 저장하며, 추가적으로 고정 객체들의 특성, 예를 들어 재질 정보, 색상 정보, 혹은 기타 높이 정보 등을 포함할 수 있다. 이러한 추가적인 정보들은 고정 객체들에 변동 사항이 발생한 경우 로봇이 보다 쉽게 확인할 수 있도록 한다.
또한 로봇은 이동하는 과정에서 주변을 센싱하여 임시맵(220)을 생성하여 이를 과거 저장했던 전체 공간에 대한 고정맵(210)과 비교할 수 있다. 비교 결과 로봇은 현재의 위치를 확인할 수 있다.
이동부(300)는 바퀴와 같이 로봇(1000)을 이동시키는 수단으로, 제어부(900)의 제어에 따라 로봇(1000)을 이동시킨다. 이때, 제어부(900)는 맵 저장부(200)에 저장된 영역에서 로봇(1000)의 현재 위치를 확인하여 이동부(300)에 이동 신호를 제공할 수 있다. 제어부(900)는 맵 저장부(200)에 저장된 다양한 정보들을 이용하여 경로를 실시간으로 생성하거나 혹은 이동 과정에서 경로를 생성할 수 있다.
이동부(300)는 주행거리 산출부(310)와 주행거리 보정부(320)를 포함한다. 주행거리 산출부(310)는 이동부(300)가 이동한 거리에 대한 정보를 제공한다. 일 실시예로 특정 지점에서 출발한 로봇(1000)이 이동한 누적 거리를 제공할 수 있다. 또는 로봇(1000)이 특정한 지점에서 회전한 후 직선으로 이동한 누적 거리를 제공할 수 있다. 또는 로봇(1000)이 특정한 시간부터 이동한 누적 거리를 제공할 수 있다.
또한, 본 발명의 일 실시예에 의하면 누적 거리뿐만 아니라 일정한 단위 내에 이동 거리에 대한 정보를 주행거리 산출부(310)가 제공할 수 있다. 주행거리 산출부(310)는 이동부(300)의 특성에 따라 다양하게 거리를 산출할 수 있는데, 이동부(300)가 바퀴인 경우 바퀴의 회전 횟수를 카운팅하여 주행 거리를 산출할 수 있다.
주행거리 보정부(320)는 주행거리 산출부(310)가 산출한 거리가 실제 로봇(1000)의 센싱 모듈(100)이 산출한 거리 정보와 상이한 경우 주행 거리 산출부(310)가 산출한 거리 정보를 보정한다. 또한, 주행 거리 산출부(310)에서 오차가 누적하여 발생할 경우 주행거리 산출부(310)의 주행거리 산출 로직을 변경하도록 제어부(900) 또는 이동부(300)에게 통지할 수 있다.
기능부(400)는 로봇의 특화된 기능을 제공하는 것을 의미한다. 예를 들어, 청소 로봇인 경우 기능부(400)는 청소에 필요한 구성요소를 포함한다. 안내 로봇인 경우 기능부(400)는 안내에 필요한 구성요소를 포함한다. 보안 로봇인 경우 기능부(400)는 보안에 필요한 구성요소를 포함한다. 기능부(400)는 로봇이 제공하는 기능에 따라 다양한 구성요소를 포함할 수 있으며, 본 발명이 이에 한정되는 것은 아니다.
로봇(1000)의 제어부(900)는 맵 저장부(200)의 맵을 생성하거나 업데이트할 수 있다. 또한, 제어부(900)는 주행 과정에서 센싱 모듈(100)이 제공하는 객체의 정보를 식별하여 이동 객체인지 고정 객체인지를 구분하여 로봇(1000)의 주행을 제어할 수 있다.
정리하면, 로봇(1000)의 제어부(900)는 센싱 모듈(100)이 외부에 배치된 객체를 센싱하면, 센싱된 객체의 특성 정보에 기반하여 센싱된 객체 중에서 이동 객체를 식별하여, 이동 객체를 제외하고 상기 센싱 모듈이 고정 객체로 센싱한 정보에 기반하여 로봇의 현재 위치를 설정한다.
도 2는 본 발명의 일 실시예에 의한 맵의 실시예를 보여주는 도면이다. 전술한 센싱모듈(100)이 로봇(1000)의 이동과정에서 센싱한 공간 정보를 저장한다.
도 2의 고정맵(210a)은 일종의 비트맵과 같이 구성할 수 있다. 이미지 파일의 비트맵에서 각 비트가 하나의 단위 영역을 나타내도록 구성할 수 있다. 각 단위 영역은 좌측 하단을 (0, 0)으로, 우측 상단을 (19, 19)로 지시할 수 있다. 또한, 도 2의 210a은 20x20 구조의 데이터 구조를 가질 수 있다. 예를 들어, 각 위치에 대해 객체가 배치되는지 여부에 대한 정보를 포함할 수 있다. 일종의 행렬과 같이 정보를 배치하고, 고정 객체가 배치되는 경우에는 해당 행렬의 값을 미리 설정된 값으로 설정할 수 있다.
또한, 고정맵(210a)에는 고정 객체들에 대한 특성 정보를 저장할 수 있는데, 객체에 대한 특성 정보는 범주로 나뉘어져 구분하여 고정맵(210a)에 저장될 수 있다. 도 2의 고정맵(210a)에서 검은 색으로 표시된 부분(211)은 콘트리트와 같이 빛이 전혀 투과하지 않는 재질의 객체를 나타낸다. 이는 범주 99에 해당하는 것으로 저장할 수 있다.
한편 212에서 지시하는 부분은 반투명 유리와 같이 빛이 일부 투과되고 일부 반사되는 재질의 객체를 나타낸다. 범주 97에 해당하는 것으로 저장할 수 있다. 또한, 213에서 지시하는 부분은 유리와 같이 빛의 투과도가 높은 재질의 객체를 나타낸다. 범주 93에 해당하는 것으로 저장할 수 있다.
즉, 도 2의 고정맵(210a)은 20x20의 비트맵 공간 중에서 각 공간의 객체 특성의 범주을 저장할 수 있다. 이는 20x20 행렬에 빈 공간을 지시하는 값(0) 또는 특정한 고정 객체의 특성 정보(범주 93, 97, 99 등)를 포함시킬 수 있다. 객체들의 특성 정보는 이들의 재질, 컬러, 혹은 고정성 등을 반영한 것이다.
본 발명의 일 실시예에 의한 SLAM(Simultaneous Localization And Mapping) 기술을 적용할 경우, 로봇(1000)은 자신의 위치를 인식하는 동시에 주변 환경에 대한 지도를 작성할 수 있다. 위치 인식은 초기 위치에서 진행 방향과 주변 환경에 대한 상대적인 거리를 이용하여 인식할 수 있다. 특히 라이다 센싱부(110)가 레이저 신호를 송신하고 주변의 객체로부터 반사되는 레이저 신호의 패턴, 예를 들어 시간차 혹은 신호의 강도(Intensity)에 따라 센싱 모듈(100)의 센싱 데이터 분석부(150)는 센싱된 객체의 거리와 특성 정보를 확인할 수 있다. 그리고 제어부(900)는 센싱된 객체의 위치와 특성에 기반하여 로봇(1000)의 현재 위치를 확인할 수 있다. 또한, 이 과정에서 고정맵(210)에서의 로봇의 위치도 확정할 수 있다.
그러나, 외부의 객체를 센싱하는 과정에서 고정물이 아닌 이동 객체가 센싱될 경우 로봇은 맵과 비교하는 과정에서 위치를 잘못 확인하는 문제가 발생할 수 있다.
도 3은 이동객체가 배치되는 경우 위치의 오류가 발생하는 과정을 보여주는 도면이다. 301은 로봇이 외부의 객체를 센싱하는 과정을 보여주고, 302는 로봇이 잘못 센싱한 결과 자신의 위치를 잘못 설정한 과정을 보여준다.
301에서 고정 객체 앞에 사람 혹은 사물과 같은 이동 객체가 배치되어 있다. 로봇이 센싱 과정에서 고정 객체와 이동 객체를 모두 센싱한 결과 로봇이 센싱한 외부 장애물들의 배치는 일직선이 된다. 로봇은 센싱된 라인으로 외부에 객체가 배치된 것으로 파악한다.
한편, 로봇이 301과 같이 센싱한 경우, 302를 살펴보면, 로봇의 원래 위치는 R 이었지만, 맵 상에서 일직선인 벽으로 판단한 결과 맵 정보와 잘못 매칭하여 실제 로봇의 위치와 상이한 R'라는 위치로 계산한다. 로봇의 현재 위치가 잘못 계산된 결과는 이후 로봇이 이동하는 과정에서 누적하여 정확한 SLAM 방식이 동작하지 않는다.
도 4는 도 3의 과정에서 로봇이 맵 상의 로봇 위치를 잘못 계산한 상황과 이를 교정하는 것을 보여주는 도면이다. 301a는 도 3의 301의 상태에서 외부 객체가 없는 상태의 공간을 보여주는 고정맵이다. "99"는 고정 객체, 예를 들어 콘크리트 재질의 객체가 배치된 것을 의미한다. 외부 객체가 없으므로 고정맵(301a)과 같은 공간에서 로봇이 센싱한 외부 객체는 고정맵(301a)의 벽에 동일하게 일치한다.
한편 302a는 도 3의 301의 상태에서 로봇이 외부의 객체인 "x"를 벽으로 판단하여 위치를 잘못 계산한 경우의 임시맵을 보여준다. 외부의 객체로 인해 뒤쪽의 벽이 확인되지 않은 상태이라 "?"로 표시하였다. 즉, 원래 로봇의 위치는 "R"인데, 벽에 나란하게 배치되는 이동 객체들("x"로 표시)로 인해 로봇은 원래의 고정맵(301a)과 임시맵(302a)을 비교한 결과, 평행한 벽을 센싱한 것으로 잘못 감지하여 로봇은 "R'"의 위치에 있는 것으로 계산하게 된다.
302a와 같은 임시맵은 로봇이 SLAM을 수행하며 외부의 객체가 어떤 종류의 객체인지를 확인하지 않은 경우에 작성되며 이로 인해 외부 개체와 고정 객체를 구분하지 않아 위치의 오류가 발생할 수 있음을 보여준다. 이를 해결하기 위해, 본 발명의 일 실시예에 의한 로봇은 센싱 모듈(100)의 다양한 센싱부들을 이용하여 외부 객체인 "x"가 벽과 같은 고정 객체인지 아니면 이동 객체인지를 식별한다.
일 실시예로, 로봇의 맵은 고정 객체의 특성 정보가 저장될 수 있다. 도 4와 같이 특정한 색상 혹은 특정한 재질 등이 반영된 맵을 맵 저장부(200)에 저장할 수 있다. 센싱 모듈(100)은 센싱된 외부의 객체에 기반하여 SLAM을 수행하는 과정에서 맵에 저장된 고정 객체와 상이한 외부 객체가 센싱된 경우, 외부 객체의 특성 정보를 분석하여 센싱된 외부 객체의 특성이 맵 상의 고정 객체와 동일한지를 확인한다.
확인 결과 센싱된 외부 객체와 맵 상의 고정 객체가 동일한 것으로 판단되면 로봇의 제어부(900)는 이를 기반으로 SLAM을 적용하고, 만약, 동일하지 않은 경우 이를 이동 객체로 판단하여 SLAM 적용 시 제외시킬 장애물로 설정한다.
303의 임시맵과 같이 외부의 객체에 대한 특성 정보를 저장한 결과 "5" 및 "7"과 같은 특성을 가지는 외부 객체가 센싱되었다. 로봇의 제어부(900)는 고정맵(301a)과 비교하여 센싱된 객체들의 특성 정보가 고정 객체를 나타내는 "99"와 상이한 것을 확인할 수 있다. 이 경우, 304와 같이 로봇은 센싱 모듈(100)의 다른 센싱부들을 이용하여 "5" 및 "7"과 같은 특성을 가지는 외부 객체의 후방에 배치된 객체들을 센싱한다.
일 실시예로 뎁스 센싱부(130)를 이용하여 객체들의 뒤쪽까지의 거리를 확인할 수 있다. 그 결과 304와 같이 "5" 및 "7"과 같은 특성을 가지는 외부 객체의 뒤쪽에 "99"라는 특성을 가지는 고정 객체가 배치되는 것을 확인한다. 그 결과 로봇은 정확한 벽의 위치를 확인하여 이를 기반으로 로봇의 위치를 확인할 수 있다. 로봇은 SLAM을 적용하는 과정에서 외부의 객체 중에서 고정맵(210)과 비교할 수 있는 고정 객체들의 위치가 "99"로 센싱된 사물들인 것으로 확인하여 로봇의 위치를 정확하게 확인할 수 있다.
본 발명의 일 실시예에 의한 SLAM(Simultaneous and Mapping Method)은 외부의 장애물을 감지하여 임시맵을 생성하는 것을 포함한다. 또한 SLAM 방식으로 로봇이 이동 및 위치를 확인하기 위해 다양한 센싱부들을 이용할 수 있다. 라이다 센싱부(110)는 외부에 배치된 사물들의 거리를 정확하게 판별할 수 있다.
또한, 사물과 사물 사이에 빈 공간이 있을 경우 그 뒤에 배치된 사물의 거리까지 정확하게 파악할 수 있으므로, 라이다 센싱부(110)가 센싱하여 작성한 임시맵(220)과 고정맵(210)을 비교하여 이동 객체를 식별하고 이동 객체로 확인된 사물 혹은 사람들은 제외시킨 후 SLAM을 수행할 수 있다. 이하 SLAM 방식으로 로봇이 위치를 인식하고 설정하는 동작에 대해 SLAM 매칭이라고 한다.
일 실시예로 온도 센싱부(120)가 외부의 객체의 온도를 확인하여 이동 객체가 사람인지 혹은 사물인지를 식별할 수 있다. 또는 뎁스 센싱부(130)가 뎁스 영상을 취득할 수도 있다. 마찬가지로 비전 센싱부(140)가 영상을 촬영하여 촬영된 영상에서 특징점을 추출하거나 혹은 색상의 변화가 발생하는 것을 확인하여 SLAM을 진행할 수 있다.
도 5는 본 발명의 일 실시예에 의한 로봇이 이동 객체의 일 실시예인 사람을 식별하여 SLAM 매칭 과정을 보여주는 도면이다.
로봇의 제어부(900)는 센싱 모듈(100) 및 이동부(300)를 제어하여 SLAM 매칭을 하는 과정에서 온도 센싱부(120)를 이용하여 사람을 인식한다(S510). 그리고 로봇의 센싱 모듈(100)은 사람 뒤에 고정 객체가 감지되는지를 센싱 모듈(100)의 다른 센싱부들을 이용하여 확인한다(S520). 일 실시예로 뎁스 센싱부(130)를 이용하여 사람이 센싱된 공간의 뎁스 영상을 생성하고 사람과 뒤의 공간의 벽과의 거리를 산출하여 고정 객체를 감지할 수 있다.
다른 실시예로 라이다 센싱부(110)를 이용하여 사람과 그 뒤의 고정 객체로부터 반사되는 레이저 신호를 분석하여 사람의 후방에 배치된 고정 객체를 확인할 수 있다. 또는 비전 센싱부(140)가 영상을 촬영하여 촬영된 영상에서 벽과 같은 고정 객체를 식별하고, 이를 전술한 뎁스 센싱부(130)가 산출한 뎁스 영사와 결합하여 고정 객체를 확인할 수 있다.
또는 제어부(900)는 맵 저장부(200)에 저장된 고정맵(210)을 이용하여 사람 뒤에 고정 객체가 있는지 여부를 추정할 수 있다. 이는 로봇(1000)이 고정맵(210)에서 이동부(300)의 이동 과정을 모니터링하여 자신의 위치를 지속적으로 추적하는 과정을 포함한다.
S520에서 사람 뒤에 고정 객체가 감지되는 경우, 센싱 모듈을 이용하여, 혹은 고정맵(210)을 이용하여 사람까지의 거리가 아닌 벽까지의 거리 정보를 로봇의 제어부(900)가 획득한다(S530). 이는 사람 뒤에 배치된 벽을 SLAM 매칭에 적용하기 위해서이다.
반대로 S520에서 사람 뒤에 고정 객체가 감지되지 않는 경우, 사람까지의 거리에 해당하는 거리 정보는 라이다 정보에서 제외시킨다(S540). 고정 객체가 감지되지 않는다면, 고정 객체에 대한 정보 없이 이동부(300)에서 누적한 주행 거리 정보들에 기반하여 주행을 하거나 현재 위치를 추정하는 작업을 제어부(900)에서 수행할 수 있다. 이후 로봇의 제어부(900)는 주어진 정보에 기반하여 SLAM 매칭을 수행한다(S550).
도 5의 과정을 정리하면 다음과 같다. 라이다 센싱부(110)가 산출한 라이다 정보(레이저 신호의 반사에 의한 신호 강도 또는 거리 정보)와 온도 센싱부(120)에서 센싱한 온도 정보를 센싱 모듈(100)이 입력받는다. 그리고 라이다 센싱부(110)가 센싱한 거리 정보 중에서 온도 센싱부(120)에서 사람으로 검출된 영역에 대해 다른 센싱부들을 이용하여 사람 뒤의 고정 장애물인 고정 객체와의 거리를 산출하고 이를 SLAM 매칭에 사용한다.
예를 들어 뎁스 센싱부(130)를 이용하여 사람 뒤의 고정 장애물의 거리를 산출할 수 있다. 그리고 사람 뒤에 별도의 고정 장애물이 없다면, 전술한 라이다 센싱부(110)에 사람에 대해 센싱한 정보는 SLAM 매칭에 적용하지 않는다. 한편, 사람을 제외하고 고정된 외부 객체(고정 객체)에 대해 라이다 센싱부(110)가 산출한 거리 정보만을 선별하여 SLAM 매칭을 수행할 수 있으며, 그로 인해 위치의 정확도를 높일 수 있다.
도 6은 본 발명의 일 실시예에 의한 온도 센싱부가 사람을 감지하는 경우 뎁스 센싱부를 이용하여 고정 객체까지의 거리를 식별하는 과정을 보여주는 도면이다. 도 5에서 S510 단계에서 온도 센싱부(120)가 라이다 센싱부(110)가 센싱한 범위 내에 사람이 있는 것으로 판단한 경우, 온도가 감지된 영역에 대해 뎁스 센싱부(130)가 뎁스 영상을 촬영하여 생성한다. 그 결과 도 6과 같은 영상을 취득할 수 있다.
센싱 데이터 분석부(150)는 Dist_A의 거리가 2미터이며 Dist_B의 거리가 1미터인 것으로 뎁스 정보를 산출할 수 있다. 제어부(900)는 Dist_A 및 Dist_B를 이용하여 사람 뒤에 고정 객체인 벽이 배치됨을 확인하고, Dist_A를 SLAM에 적용할 수 있다. 만약, 사람 뒤에 고정 객체가 없다면 SLAM 에 별도의 정보를 입력하지 않을 수 있다.
도 7은 본 발명의 일 실시예에 의한 사람 뒤의 벽의 위치에 따라 제어부가 달리 동작하는 과정을 보여주는 도면이다. 701은 사람들이 고정 객체(벽)에 가까이 위치하는 경우이다. 온도 센싱부(120)가 사람들이 위치함을 확인하였으므로, 센싱 모듈(110)은 뎁스 센싱부(130)를 이용하여 도 6과 같이 뎁스 영상을 산출한다. 그 결과 사람들 뒤에 배치된 고정 객체와의 거리를 산출할 수 있으며 그 결과 고정 객체의 위치가 반영된 라인(711)이 결정되고 711에서 지시되는 라인에 기반하여 로봇은 SLAM을 진행할 수 있다.
한편, 702는 사람들이 고정 객체(벽)에서 멀리 떨어져 위치하는 경우이다. 온도 센싱부(120)가 사람들이 위치함을 확인하였으므로, 센싱 모듈(110)은 뎁스 센싱부(130)를 이용하여 뎁스 영상을 산출하지만, 사람들과 뒤쪽의 벽의 거리가 크기 때문에 뎁스 영상에서 거리 정보를 산출할 수 없다. 그 결과, 로봇의 제어부(900)는 712만을 고정 객체의 위치가 반영된 라인으로 결정하고, 712에서 지시하는 라인에 기반하여 로봇은 SLAM을 진행할 수 있다. 즉, 사람 뒷편의 벽에 대한 정보는 SLAM 진행에서 입력되지 않는다.
도 4 내지 7에서 살펴본 본 발명의 실시예를 살펴보면, 공항, 항만, 병원, 호텔, 학교 등과 같이 사람이 많은 환경에서 SLAM 성능이 사람에 의해 영향을 받지 않도록 다양한 센싱 정보를 이용할 수 있으므로 로봇은 좀 더 정확하게 위치를 인식할 수 있다.
전술한 실시예에서 센싱된 사람은 제외하고, 그 외의 고정 객체들로부터 산출된 라이다 정보 혹은 뎁스 정보를 이용하여 SLAM을 수행할 수 있다. 본 발명을 적용할 경우, 라이다 센싱부(110)가 제공하는 거리 정보에서 사람으로부터 반사되어 입력되는 거리 정보를 제거하여 보다 정확하게 위치를 인식할 수 있다. 즉, 라이다 센싱부(110)가 생성한 정보들 중에서 고정 객체를 통해 반사된 신호만을 선별하여 SLAM을 수행할 수 있으므로, 사람으로부터 반사된 신호들에 의한 거리 왜곡이 발생하지 않는다.
도 4 내지 도 7에서는 센싱 정보의 신뢰도를 떨어뜨리는 이동 객체, 특히 사람으로부터 반사된 라이다 데이터를 제거하고 신뢰성 있는 고정 객체의 데이터만 활용하여 SLAM 성능을 높이는 과정을 보여준다.
도 8은 본 발명의 일 실시예에 의한 로봇이 외부의 객체가 이동 객체인지 고정 객체인지를 식별하여 로봇의 현재 위치를 설정하는 과정을 보여주는 도면이다.
로봇(1000)의 센싱 모듈(100)이 외부에 배치된 객체를 센싱한다(S810). 이때 고정 객체와 이동 객체 모두 센싱된다. 따라서 로봇이 정확하게 현재 위치를 설정하는 SLAM 을 수행하기 위해 로봇(1000)의 제어부(900)는 센싱된 객체의 특성 정보에 기반하여 센싱된 객체 중에서 이동 객체를 식별한다(S820). 특성 정보란 외부의 객체로부터 온도를 센싱하여 사람인지 여부를 확인하는 실시예(도 4 내지 도 7 참조)를 포함한다.
또한, 특성 정보란 외부의 객체의 색상을 센싱하여 이동 객체와 고정 객체를 식별하는 것을 포함한다. 또 다른 실시예로 특성 정보란 라이다 센싱부가 송신한 레이저 신호가 외부의 객체로부터 반사된 신호의 강도를 반영하여 객체의 재질을 판단하고 이동 객체와 고정 객체를 식별하는 것을 포함한다. 이외에도 센싱모듈(100)이 외부의 객체를 센싱하는 과정에서 거리 외에도 다양하게 산출되는 정보들이 모두 특성 정보의 실시예가 될 수 있다.
이후, 제어부(900)는 센싱된 정보들에서 이동 객체로부터 센싱된 정보를 제외한다. 즉, 센싱된 객체들에서 이동 객체를 제외하고 센싱 모듈(100)이 고정 객체로 센싱한 정보에 기반하여 로봇의 현재 위치를 설정한다(S830).
S820 및 S830은 센싱한 객체의 특성 정보에 따라 다양한 실시예로 구현할 수 있다. 특성 정보가 온도인 경우, 앞서 도 5 내지 7에서 살펴본 바와 같이 S820 과정은 온도 센싱부(120)가 외부의 객체를 사람으로 식별하는 단계를 포함한다. 이는 외부의 온도가 체온 혹은 이에 근접한 온도로 센싱되는 것을 포함한다.
그리고 도 6에서 살펴본 바와 같이 제어부(900)는 로봇(1000)을 기준으로 이동 객체의 후방에 고정 객체가 배치되는지 여부를 센싱 모듈(100)의 라이다 센싱부(110) 또는 뎁스 센싱부(130)를 이용하여 확인할 수 있다. 뎁스 센싱부(130)가 후방의 고정 객체의 배치 여부를 센싱하는 과정은 도 6에서 살펴보았다. 즉, 온도가 센싱된 영역에 대해 뎁스 영상을 산출하여 사람이 아닌 뒤쪽의 벽의 뎁스 정보를 센싱하고, 센싱된 거리 값(Dist_A)를 후면의 고정 객체와의 거리로 판단하여 SLAM을 수행할 수 있다.
도 9는 본 발명의 일 실시예에 의한 라이다 센싱부가 후방의 고정 객체가 배치되었는지를 식별하는 도면이다. 본 발명의 일 실시예에 의하면 라이다 센싱부는 일정한 높이에서 레이저를 송신하고 객체들이 이를 반사하면 반사된 신호의 강도와 시간 등을 이용하여 외부의 객체가 존재하는지 확인한다. 이 과정에서 라이다 센싱부의 높이는 제어부(900)의 제어에 의해 조절할 수 있다. 즉, 평상시에는 0.8m 높이로 라이다 센싱부가 신호를 송수신하지만, 일정한 상황에서 2m 높이로 라이다 센싱부의 위치를 변경하여 외부의 객체를 센싱할 수 있다.
센싱모듈(100)이 탑재된 로봇(R)이 전방으로 90도 범위 내에서 신호를 송신 및 수신하는 구성에 대해 살펴본다. 라이다 센싱부(110)는 전방 90도 내에 신호를 순차적으로, 혹은 동시에 송신하고, 외부의 객체로부터 반사되는 신호를 수신한다. 벽(12) 및 사람(11a, 11b)과 같이 라이다 센싱부(110)가 송신한 신호가 투과하지 않는 영역에서는 신호가 반사된다.
한편, 벽(12)에서 반사되는 신호의 강도와 사람(11a, 11b)으로부터 반사되는 신호의 강도는 51과 같이 상이할 수 있다. 또한, 벽(12) 및 사람(11a, 11b)은 위치가 상이하므로 이들의 반사된 신호에서 산출되는 거리 정보 역시 52와 같이 상이하다.
정리하면, 센싱모듈(100)의 라이다 센싱부(110)가 센싱한 신호의 강도는 하단의 그래프(51)와 같이 표시된다. 설명의 편의를 위하여 로봇(R)을 중심으로 -45도에서 +45도 사이의 외부 객체의 센싱된 신호의 강도를 보여준다. 사람들(11a, 11b) 사이의 공간을 통해 뒤쪽에 배치된 벽(12)으로부터 신호가 반사되어 일부 신호가 수신된다. 또한, 사람들(11a, 11b)에게서 반사된 신호 역시 라이다 센싱부(110)가 수신한다. 객체의 재질에 따라 반사된 신호의 강도가 상이할 수 있다.
한편, 로봇(R)이 센싱한 신호의 거리는 하단의 그래프(52)와 같이 표시된다. 설명의 편의를 위하여 로봇(R)을 중심으로 -45도에서 +45도 사이의 객체의 센싱된 거리를 보여준다.
로봇(R)의 센싱모듈(100)이 센싱한 신호의 강도(Intensity) 및 거리(Distance)에 대한 정보는 제어부(900)에게 전달되고, 제어부(900)는 외부 객체들에 대해 센싱된 정보들을 기준으로 외부의 객체를 식별할 수 있다. 앞서 온도 센싱부(120)가 11a 및 11b의 체온에 의해 외부에 사람이 존재함을 센싱한 상태이므로, 로봇(R)은 뒤쪽의 고정 객체인 벽(12)의 배치 여부를 확인할 수 있다. 이 과정에서 선택적으로 로봇(R)은 사람들 뒤쪽의 벽(12)을 센싱하기 위해 라이다 센싱부(110)의 높이를 2미터로 올려서 벽(12)을 센싱할 수 있다.
도 9에서 센싱된 벽(12)의 거리에 대한 정보(12a 영역)만을 SLAM을 수행하거나 혹은 사람들에 의해 가려전 부분에 대해 확장하여 SLAM을 수행할 수 있다.
즉, 도 9 또는 앞서 도 6에서 살펴본 바와 같이 제어부(900)는 로봇(R)을 기준으로 이동 객체(11a, 11b)의 후방에 고정 객체(12)가 배치되는지 여부를 센싱 모듈(100)의 라이다 센싱부(110) 또는 뎁스 센싱부(130)를 이용하여 확인하고 고정 객체(12)와의 거리에 기반하여 로봇의 현재 위치를 설정할 수 있다(도 8의 S830).
한편, 이 과정에서 고정맵을 이용하여 보다 정확하게 로봇의 현재 위치를 확인할 수 있다. 로봇의 제어부(900)가 SLAM을 일 실시예로 하여 로봇의 현재 위치를 설정하기 위해, 센싱모듈(100)이 이동 객체의 후방에 배치되는 고정 객체와 로봇 사이의 거리를 센싱한다. 이때 라이다 센싱부(110) 또는 뎁스 센싱부(130)가 후방의 고정 객체와의 거리를 센싱할 수 있다. 그리고 제어부(900)는 고정 객체의 거리 정보와 로봇의 맵 저장부에 저장된 고정맵을 비교하여 로봇의 현재 위치를 확인할 수 있다.
이에 대해 도 10에서 살펴본다.
도 10은 로봇이 맵을 이용하여 현재 위치를 확인하는 과정을 보여주는 도면이다. 로봇의 이동부(300)는 이동 과정에서 이동부(300)의 동력에 관련한 장치들의 움직임을 누적하여 계산한다. 예를 들어, 주행거리 산출부(310)는 바퀴의 회전수를 카운팅하고 방향 전환 과정을 누적하여 주행 거리를 누적할 수 있다. 그런데, 로봇의 이동부(300)는 기계적인 동작을 수행하므로 오차가 발생할 수 있다.
또다른 실시예로, 로봇이 외부의 힘에 의해 밀리는 경우에도 주행거리 산출부(310)에서 감지하지 못하지만 로봇은 이동한 상태가 될 수 있다. 따라서 주행거리 산출부(310)에서 로봇이 자신의 위치를 확정한 경우와 실제 로봇의 위치가 상이할 수 있다. 도 10에서 실선은 실제 로봇이 이동한 거리이며 로봇의 실제 위치는 R_1이다.
그러나 로봇의 이동 과정에서 로봇이 밀리거나 혹은 기계적으로 주행 경로를 파악하는데 있어 오류가 발생하였기 때문에 로봇은 자신의 위치가 R_2에 있는 것으로 파악할 수 있다. 즉, 도 10의 220a은 임시 맵인데 로봇이 이동 과정에서 외부 객체를 센싱하고 센싱된 결과에 기반하여 작성한 것이다. "99"는 벽과 같이 반사율이 높은 물체가 배치되는 것을 의미하고, "x"는 외부에 온도 센싱부(120)가 사람으로 센싱한 존재의 위치를 보여준다.
만약, 본 발명을 적용하지 않는다면, 로봇은 외부의 객체들이 일직선으로 존재하는 것으로 파악하여 계속 R_2의 위치로 감지하게 된다.
그러나, 본 발명을 적용할 경우, 로봇의 센싱모듈(100)과 제어부(900)는 온도가 감지됨으로 인해 외부에 이동 객체가 배치된 것을 확인한다. 이 경우 로봇은 220b와 같이 라이다 센싱부(110) 또는 뎁스 센싱부(130)를 이용하여 이동 객체인 "x"의 후방에 위치하는 고정 객체를 센싱한다. 센싱한 결과 후방에 고정 객체들이 "99"와 같이 배치되는 것으로 센싱한다.
새로운 임시맵(220b)에서 로봇의 센싱모듈(100)는 모든 고정 객체들을 센싱할 수는 없으나 일부 고정 객체들은 센싱할 수 있다. 로봇의 센싱모듈(100)에 의해 센싱되지 않은 고정 객체는 "H"로 표시하였으며, 센싱된 고정 객체들은 "99"로 표시하였다. 그 결과 로봇의 제어부(900)는 고정 객체와의 거리가 맵 상에서 3칸의 거리라는 것을 확인할 수 있다.
이때, 로봇의 제어부(900)는 자신의 위치가 R_2에 있다는 가정 하에 고정맵(210b)과 비교하는데, 고정맵(210b)에서 R_2의 위치에서는 고정객체와의 거리가 1칸임을 확인한다. 이로 인해 앞서 센싱된 임시맵(220b)과 차이가 발생함을 제어부(900)가 확인한다.
따라서, 로봇의 제어부(900)는 일정한 범위(오차 범위, 예를 들어 A1~A11의 위치) 내에서 임시맵(220b)과 같이 고정 객체가 센싱될 수 있는 위치를 검색한다. 그 결과 제어부(900)는 A10의 위치에 있을 때, 220b와 같은 임시맵이 생성될 수 있는 것으로 확인하고, 로봇의 현재 위치를 A10의 위치로 변경한다. 그리고 로봇은 정확하게 설정된 A10에서의 위치에서 SLAM을 수행할 수 있다.
이 과정에서 로봇의 제어부(900)는 사람으로 센싱된 "x" 지점의 객체들의 정보는 제거하고 고정 객체로 센싱된 정보를 이용하여 SLAM을 수행할 수 있다. 로봇의 제어부(900)가 본 발명의 실시예에 의한 이동 객체를 식별하고 고정 객체를 확정하여 생성한 임시맵(220c)을 살펴보면, 로봇의 제어부(900)는 사람들에 의해 가려졌기 때문에 센싱되지 않았던 고정 객체들(220b의 "H")의 위치를 고정맵(210a)을 참조하여 새로이 임시맵(220c)에 추가할 수 있다. 그 결과 SLAM을 수행함에 있어 외부의 고정 객체의 위치를 정확하게 로봇의 제어부(900)가 파악할 수 있다.
도 10에서 온도를 감지하여 이동 객체를 식별할 수 있으나, 이외에도 이동 객체의 재질 정보에 기반하여 식별할 수 있다. 즉, 본 발명의 실시예에 의한 센싱 모듈(100)은 이동 객체의 거리 정보 외에도 특성 정보를 산출할 수 있는데, 라이다 센싱부(110)와 같이 신호의 반사 강도에 기반하여 외부 객체의 재질 정보를 추출하고 이에 기반하여 SLAM 기능을 수행할 수 있다. 도 11에서 보다 상세히 살펴본다.
도 11은 본 발명의 일 실시예에 의한 객체의 재질 정보에 기반하여 로봇이 현재 위치를 설정하는 과정을 보여주는 도면이다.
로봇의 센싱모듈은 외부에 배치된 객체를 센싱하는데(S1110), 이 과정에서 라이다 센싱부(110)가 객체의 재질 정보를 산출한다(S1115). 재질 정보는 전술한 신호의 반사 강도에 기반할 수 있다. 그리고 로봇의 제어부(900)는 이동 객체의 재질 정보와 고정 객체의 재질 정보를 식별한다(S1120).
주로 콘크리트와 유리 등에서 반사되는 신호의 강도와 사람의 옷 혹은 플라스틱 사물로부터 반사되는 신호의 강도는 상이할 수 있으므로, 이에 기반하여 이동 객체의 재질 정보와 고정 객체의 재질 정보를 식별한다. 그 결과 로봇의 제어부(900)는 재질 정보에 기반하여 이동 객체의 위치 정보들은 제외시키고,
고정 객체의 재질 정보에 기반하여 로봇의 현재 위치를 설정한다(S1130). 보다 상세히 도 10에서 살펴본 바와 같이 "x"로 표시된 부분이 라이다 센싱부(110)에서는 재질 정보로 센싱될 수 있다. 예를 들어 신호의 반사 강도가 "3" 혹은 "5"로 확인될 수 있다. 그 외에 고정 객체들은 "99"라는 재질 정보를 반영하여 확인될 수 있다. 이 경우 로봇의 제어부(900)는 재질 정보의 기반하여, 고정 객체와 이동 객체를 식별할 수 있다.
또한, 로봇이 현재 위치를 보다 정확하게 확인하기 위해 재질 정보를 특성 정보로 저장하는 고정맵에 기반하여 고정맵에 저장된 재질 정보와 라이다 센싱부(110)가 식별한 객체의 재질을 비교할 수 있다. 앞서 도 5에서도 303과 같이 원래 "5" 또는 "7"로 센싱된 경우, 후면의 고정 객체를 센싱하여 후방의 벽을 감지하는 과정을 살펴보았다.
센싱된 객체들의 거리 뿐만 아니라 특성 정보(온도, 재질, 혹은 색상)에 기반하여 본 발명의 로봇은 이동 객체와 고정 객체를 구분하여 SLAM을 수행함에 있어 이동 객체로부터 발생하는 정보의 노이즈를 제거할 수 있다.
본 발명의 다른 실시예로 온도나 재질을 보조하여, 혹은 독립적으로 외부 객체의 색상 또는 경계선을 감지하고 이에 기반하여 로봇이 이동 객체를 제외하고 SLAM을 수행하는 과정에 대해 살펴본다.
로봇(1000)은 고정 객체들의 색상 정보를 특성 정보로 고정맵에 저장할 수 있다. 도 12는 본 발명의 일 실시예에 의한 색상 정보가 반영된 고정맵을 보여주는 도면이다. 고정맵(210c)에서 고정 객체들의 색상이 RGB HEXA 값으로 제시되어 있다. 도 12의 고정맵(210c)에서는 총 3 종류의 색상으로, 회색을 지시하는 "C0C0C0", 노란 색을 지시하는 "FFFF33", 그리고 녹색을 지시하는 "00CC66"이 표시되어 있다.
로봇(1000)의 비전 센싱부(140)는 주행 과정에서 외부의 객체들의 색상 정보를 산출한다. 그리고 제어부(900)는 고정 객체가 가질 수 있는 색상 정보와 외부의 객체들의 색상을 비교하여 센싱된 외부의 객체가 이동 객체인지 혹은 고정 객체인지를 식별할 수 있다. 물론, 이 과정에서 제어부(900)는 전술한 온도 센싱부(120), 라이다 센싱부(110), 뎁스 센싱부(130) 등이 센싱한 정보와 결합하여 센싱의 정확도를 높일 수 있다.
도 13은 본 발명의 다른 실시예에 의한 객체의 색상 정보에 기반하여 로봇이 현재 위치를 설정하는 과정을 보여주는 도면이다.
로봇의 센싱모듈은 외부에 배치된 객체를 센싱하는데(S1310), 이 과정에서 비전 센싱부(140)가 객체의 색상 정보를 산출한다(S1315). 색상 정보는 전술한 RGB HEXA 값이 될 수 있다. 그리고 로봇의 제어부(900)는 이동 객체의 색상 정보와 고정 객체의 색상 정보를 식별한다(S1320).
주로 콘크리트나 금속형 재질들의 색상과 사람의 옷 혹은 사람들이 지니거나 간헐적으로 설치되는 사물들의 색상은 상이할 수 있으므로, 이에 기반하여 이동 객체의 색상 정보와 고정 객체의 색상 정보를 식별한다. 그 결과 로봇의 제어부(900)는 색상 정보에 기반하여 이동 객체의 위치 정보들은 제외시키고,
고정 객체의 색상 정보에 기반하여 로봇의 현재 위치를 설정한다(S1330). 또한, S1330에서 도 12와 같은 고정맵에 고정 객체의 색상 정보가 특성 정보로 저장된 경우, 제어부(900)는 센싱된 외부의 객체의 색상 정보와 비전 센싱부(140)가 식별한 객체의 색상 정보를 비교하여 현재 위치를 설정할 수 있다.
비전 센싱부(140)가 센싱하는 색상은 외부의 빛의 조건 혹은 그림자 등에 따라 변화할 수 있다. 따라서, 제어부(900)는 객체들의 색상을 비교하는 과정에서 이러한 색상의 변화 범위에 기반하여 객체들을 식별한다.
도 14는 본 발명의 일 실시예에 의한 색상 정보가 반영된 임시맵의 구성을 보여주는 도면이다. 로봇(R)은 비전 센싱부(140) 및 라이다 센싱부(110)에서 센싱된 정보에 기반하여 임시맵(200f)을 생성한다. 로봇의 전면 방향에 "FF007F"라는 색상을 가진 객체가 센싱된다.
로봇의 제어부(900)는 센싱된 색상은 도 12의 고정맵(210c)에 배치된 객체들의 색상과 상이함을 파악하고 이를 이동 객체로 판단한다. 반면, 로봇(R)이 센싱한 객체들 중에서 도 12의 고정맵(210c)에 배치된 객체들의 색상과 차이는 있으나 오차 범위 내에 차이를 가지는 객체들에 대해 제어부(900)는 고정 객체로 판단한다. 오차 범위 내의 차이를 가지는 객체들은 도 14에 해칭으로 표시하였다.
도 15는 본 발명의 일 실시예에 의한 로봇이 고정 객체를 확인할 수 없는상태에서 현재 위치를 설정하는 도면이다.
도 15에서 고정 객체는 "99"로 표시되어 있으며 "X"는 이동 객체를 나타낸다. 1501에 표시된 바와 같이, 로봇(R)의 현재 위치에서는 고정 객체가 전혀 센싱되지 않는 상태이다. 이러한 경우, 로봇은 가장 최근에 확인된 로봇의 위치에 기반하여 로봇의 이동부(300)가 생성하는 주행 정보를 이용하여 현재 위치를 설정할 수 있다.
즉, 도 15와 같이 로봇이 마지막으로 위치를 설정했던 지점이 R_1이고, R의 위치까지 주행한 경로가 도 15에 도시된 바와 같은 상태에서 로봇이 사람들을 포함한 이동 객체(X)들 사이에 위치할 수 있으며, 이 상태에서 로봇은 고정 객체들을 전혀 센싱할 수 없는 상태에 도달할 수 있다. 이 경우, 로봇은 센싱된 주변의 객체들의 정보를 모두 제거하고 주행거리 산출부(310)에서 기록했던 주행 거리 및 회전 히스토리에 기반하여 SLAM을 수행할 수 있다.
다시 설명하면, 로봇의 제어부(900)는 센싱된 객체들에 대한 정보를 SLAM에 적용하지 않고, 직전까지 확인했던 R_1에서부터 주행한 경로 정보에 기반하여 현재 위치를 설정할 수 있다. 그리고 로봇이 이전의 주행 기록에 따라 설정된 현재 위치에 기반하여 현재 위치를 확정한 후, 1502와 같이 사람들 혹은 이동 객체들이 이동하거나 혹은 로봇이 이동하여 로봇의 센싱모듈(100)이 고정 객체를 센싱할 수 있는 상태가 되면 센싱한 고정 객체들의 위치 정보를 이용하여 제어부(900)는 다시 SLAM을 수행한다.
도 15의 1501의 상태에서 그대로 SLAM 매칭을 수행할 경우 오류가 발생할 수 있으므로, 로봇이 정확한 고정 객체의 정보를 센싱할 수 있을 때까지 제어부(900)는 이동부(300)의 주행거리 산출부(310)에서 누적한 정보에 기반하여 이동할 수 있다.
또한, 로봇의 제어부(900)는 주행거리 산출부(310)가 생성한 주행 거리 정보가 실제와 상이하며 이러한 오류가 누적되는 경우, 주행거리 보정부(320)에 보정 루틴을 활성화 시켜 주행거리가 정확하게 산출되도록 한다. 예를 들어, 로봇이 100 미터를 이동했는데 주행거리 산출부(310)는 101미터로 경로정보를 저장하고 외부적인 요인이 없음에도 경로 정보의 오차가 발생할 경우 제어부(900)는 주행거리 보정부(320)의 주행거리 재산정을 위한 보정 루틴을 활성화시켜서 주행거리가 정확하게 누적될 수 있도록 한다.
본 발명의 실시예들은 라이다 센싱부(110)를 이용하여 SLAM을 수행하는 과정에서 고정된 장애물들로부터 검출되는 라이다 거리 정보값만을 사용하여 로봇의 정확한 위치를 추정할 수 있다. 특히, 공항, 터미널, 병원 등 많은 사람들이 있는 경우 로봇은 라이다 센싱부(110)가 사람들까지 감지하여 SLAM 매칭을 시도할 수 있는데 이 경우 로봇은 자신의 위치를 잘못 매칭할 수 있다. 특히, 사람이 많을 수록 잘못된 매칭 정보가 입력되고 사람은 시간에 따라 정지하고 이동하기 때문에 정지된 피쳐(feature)가 아닌 순간순간 생겼다 사라지는 피쳐(feature)들을 생성할 수 있는데, 본 발명에서는 이러한 피쳐들을 로봇이 SLAM을 수행하는 과정에서 제거하여 로봇의 위치인식의 정확도를 향상시킨다. 움직이는 사람들을 제외한 고정된 장애물만을 매칭 대상으로 보고 SLAM 의 입력으로 사용하여 로봇의 위치인식 성능을 향상시킬 수 있다.
뿐만 아니라, 사람이 아닌 객체에 대해서도 그것이 이동 객체이며 고정 객체가 아닌 경우 이를 제외시켜 SLAM 매칭의 정확도를 높일 수 있다.
또한, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니며, 본 발명의 목적 범위 내에서 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 반도체 기록소자를 포함하는 저장매체를 포함한다. 또한 본 발명의 실시예를 구현하는 컴퓨터 프로그램은 외부의 장치를 통하여 실시간으로 전송되는 프로그램 모듈을 포함한다.
이상에서는 본 발명의 실시예를 중심으로 설명하였지만, 통상의 기술자의 수준에서 다양한 변경이나 변형을 가할 수 있다. 따라서, 이러한 변경과 변형이 본 발명의 범위를 벗어나지 않는 한 본 발명의 범주 내에 포함되는 것으로 이해할 수 있을 것이다.
100: 차단장치 감지부 110: 차단장치 데이터베이스부
120: 비전 센싱부 130: 뎁스 센싱부
141~149: 보조 센싱부 150: 감지 제어부
200: 맵 저장부 300: 이동부
400: 기능부 500: 통신부
900: 제어부 1000: 로봇

Claims (14)

  1. 로봇의 센싱 모듈이 외부에 배치된 객체를 센싱하는 단계;
    상기 로봇의 제어부는 상기 센싱 결과 상기 외부에 배치된 객체를 감지하여 임시맵을 생성하여 맵 저장부에 저장하는 단계;
    상기 제어부는 고정 객체의 위치를 저장하는 맵 저장부의 고정맵과 상기 임시맵을 비교하는 단계;
    상기 제어부는 상기 센싱된 객체의 특성 정보에 기반하여 상기 센싱된 객체 중 상기 고정맵의 상기 고정 객체와 상이한 것으로 센싱된 이동 객체인 사람과 상기 사람 뒤의 상기 고정 객체를 식별하는 단계; 및
    상기 제어부는 상기 사람을 제외하고 상기 센싱 모듈이 고정 객체로 센싱한 정보에 기반하여 상기 로봇의 현재 위치를 설정하는 단계를 포함하며,
    상기 센싱 모듈의 라이다 센싱부가 신호를 송신한 후, 벽 및 상기 사람으로부터 반사되는 강도의 차이와 상기 센싱 모듈의 온도 센싱부가 상기 사람의 체온을 감지한 결과에 따라 상기 이동 객체가 사람임을 확인하는, 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 제어부는 상기 로봇을 기준으로 상기 사람의 후방에 고정 객체가 배치되는지 여부를 상기 센싱 모듈의 라이다 센싱부 또는 뎁스 센싱부를 이용하여 확인하는 단계를 더 포함하는, 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법.
  4. 제1항에 있어서,
    상기 로봇의 현재 위치를 설정하는 단계는
    라이다 센싱부 또는 뎁스 센싱부가 상기 사람의 후방에 배치되는 고정 객체와 상기 로봇 사이의 거리를 센싱하는 단계; 및
    상기 제어부가 상기 고정 객체의 거리 정보와 상기 로봇의 맵 저장부에 저장된 고정맵을 비교하여 상기 로봇의 현재 위치를 확인하는 단계를 포함하는, 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법.
  5. 제1항에 있어서,
    상기 센싱 모듈은 라이다 센싱부를 더 포함하며,
    상기 식별하는 단계는 상기 라이다 센싱부가 상기 객체의 재질 정보를 산출하는 단계를 포함하며,
    상기 로봇의 현재 위치를 설정하는 단계는 상기 제어부가 상기 사람의 옷의 재질 정보와 상기 고정 객체의 재질 정보를 식별하고, 상기 고정 객체의 재질 정보에 기반하여 상기 로봇의 현재 위치를 설정하는 단계를 포함하는, 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법.
  6. 제5항에 있어서,
    상기 로봇은 고정 객체에 대한 재질 정보를 특성 정보로 저장하는 고정맵을 포함하는 맵저장부를 더 포함하며,
    상기 제어부는 상기 고정맵에 저장된 재질 정보와 상기 라이다 센싱부가 식별한 객체의 재질을 비교하는, 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법.
  7. 제1항에 있어서,
    상기 센싱 모듈은 비전 센싱부를 더 포함하며,
    상기 식별하는 단계는 상기 비전 센싱부가 상기 객체의 색상 정보를 산출하는 단계를 포함하며,
    상기 로봇의 현재 위치를 설정하는 단계는 상기 제어부가 상기 사람의 옷의 색상 정보와 상기 고정 객체의 색상 정보를 식별하고, 상기 고정 객체의 색상 정보에 기반하여 상기 로봇의 현재 위치를 설정하는 단계를 포함하는, 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법.
  8. 제7항에 있어서,
    상기 로봇은 고정 객체에 대한 색상 정보를 특성 정보로 저장하는 고정맵을 포함하는 맵저장부를 더 포함하며,
    상기 제어부는 상기 고정맵에 저장된 색상 정보와 상기 비전 센싱부가 식별한 객체의 색상을 비교하는, 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법.
  9. 로봇을 이동시키는 이동부;
    외부에 배치된 객체를 센싱하는 센싱 모듈;
    고정 객체의 위치 정보를 저장하는 고정맵과 임시맵을 포함하는 맵 저장부; 및
    상기 외부에 배치된 객체를 감지하여 상기 임시맵을 생성하고 상기 임시맵과 상기 고정맵을 비교하여 상기 센싱된 객체의 특성 정보에 기반하여 상기 센싱된 객체 중 상기 고정맵의 상기 고정 객체와 상이한 것으로 센싱된 이동 객체인 사람과 상기 사람 뒤의 상기 고정 객체를 식별하여, 상기 사람을 제외하고 상기 센싱 모듈이 고정 객체로 센싱한 정보에 기반하여 상기 로봇의 현재 위치를 설정하며, 상기 센싱 모듈의 라이다 센싱부가 신호를 송신한 후, 벽 및 상기 사람으로부터 반사되는 강도의 차이와 상기 센싱 모듈의 온도 센싱부가 상기 사람의 체온을 감지한 결과에 따라 상기 이동 객체가 사람임을 확인하는 제어부를 포함하는, 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 로봇.
  10. 삭제
  11. 제9항에 있어서,
    상기 제어부는 상기 로봇을 기준으로 상기 사람의 후방에 고정 객체가 배치되는지 여부를 상기 센싱 모듈의 라이다 센싱부 또는 뎁스 센싱부를 이용하여 확인하는, 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 로봇.
  12. 제9항에 있어서,
    상기 센싱 모듈은 상기 사람의 후방에 배치되는 고정 객체와 상기 로봇 사이의 거리를 센싱하는 라이다 센싱부 또는 뎁스 센싱부를 더 포함하며,
    상기 제어부는 상기 고정 객체의 거리 정보와 상기 로봇의 맵 저장부에 저장된 고정맵을 비교하여 상기 로봇의 현재 위치를 확인하는, 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 로봇.
  13. 제9항에 있어서,
    상기 센싱 모듈은 상기 객체의 재질 정보를 산출하는 라이다 센싱부를 더 포함하며,
    상기 제어부는 상기 사람의 옷의 재질 정보와 상기 고정 객체의 재질 정보를 식별하고, 상기 고정 객체의 재질 정보에 기반하여 상기 로봇의 현재 위치를 설정하는, 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 로봇.
  14. 제9항에 있어서,
    상기 센싱 모듈은 상기 객체의 색상 정보를 산출하는 비전 센싱부를 더 포함하며,
    상기 제어부는 상기 사람의 옷의 색상 정보와 상기 고정 객체의 색상 정보를 식별하고, 상기 고정 객체의 색상 정보에 기반하여 상기 로봇의 현재 위치를 설정하는, 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 로봇.
KR1020170043923A 2017-04-04 2017-04-04 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법 및 이를 구현하는 로봇 KR102329674B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170043923A KR102329674B1 (ko) 2017-04-04 2017-04-04 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법 및 이를 구현하는 로봇

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170043923A KR102329674B1 (ko) 2017-04-04 2017-04-04 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법 및 이를 구현하는 로봇

Publications (2)

Publication Number Publication Date
KR20180112622A KR20180112622A (ko) 2018-10-12
KR102329674B1 true KR102329674B1 (ko) 2021-11-19

Family

ID=63876496

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170043923A KR102329674B1 (ko) 2017-04-04 2017-04-04 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법 및 이를 구현하는 로봇

Country Status (1)

Country Link
KR (1) KR102329674B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102479774B1 (ko) 2022-09-15 2022-12-21 주식회사 라스테크 로봇팔을 구비하는 휴머노이드 로봇

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102368856B1 (ko) * 2018-12-31 2022-03-02 주식회사 도구공간 오브젝트 탐지 방법 및 장치
CN110349250B (zh) * 2019-06-28 2020-12-22 浙江大学 一种基于rgbd相机的室内动态场景的三维重建方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012137909A (ja) * 2010-12-27 2012-07-19 Advanced Telecommunication Research Institute International 移動体遠隔操縦システムおよびそのための制御プログラム
JP2015035139A (ja) * 2013-08-09 2015-02-19 トヨタ自動車株式会社 自律移動体、障害物判別方法及び障害物回避方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100791382B1 (ko) * 2006-06-01 2008-01-07 삼성전자주식회사 로봇의 이동 경로에 따라 소정 영역의 특성에 관한 정보를수집하고 분류하는 방법 및 상기 영역 특성에 따라제어되는 로봇, 상기 영역 특성을 이용한 ui 구성 방법및 장치
KR101493075B1 (ko) * 2008-12-17 2015-02-12 삼성전자 주식회사 이동 로봇의 위치 인식 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012137909A (ja) * 2010-12-27 2012-07-19 Advanced Telecommunication Research Institute International 移動体遠隔操縦システムおよびそのための制御プログラム
JP2015035139A (ja) * 2013-08-09 2015-02-19 トヨタ自動車株式会社 自律移動体、障害物判別方法及び障害物回避方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102479774B1 (ko) 2022-09-15 2022-12-21 주식회사 라스테크 로봇팔을 구비하는 휴머노이드 로봇

Also Published As

Publication number Publication date
KR20180112622A (ko) 2018-10-12

Similar Documents

Publication Publication Date Title
US20220083070A1 (en) Identification And Localization Of A Base Station Of An Autonomous Mobile Robot
US11003921B2 (en) Apparatus and method for distinguishing false target in vehicle and vehicle including the same
KR102461938B1 (ko) 주행 지면의 장애물을 식별하는 방법 및 이를 구현하는 로봇
US11602850B2 (en) Method for identifying moving object in three-dimensional space and robot for implementing same
CN100418112C (zh) 用于记录和自动识别确认的面部成像系统
CN103419944B (zh) 一种登机桥及其自动靠接方法
US11500391B2 (en) Method for positioning on basis of vision information and robot implementing same
KR102329674B1 (ko) 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법 및 이를 구현하는 로봇
US10783363B2 (en) Method of creating map by identifying moving object, and robot implementing the method
KR102151814B1 (ko) 레이더 센서 및 카메라를 이용한 객체 인식 방법 및 그를 위한 장치
US10871781B2 (en) Method for drawing map having feature of object applied thereto and robot implementing the same
JPH07116981A (ja) 移動ロボットの誘導装置
JP2002250605A (ja) 自動ドアセンサ
KR102500634B1 (ko) 안내 로봇 및 그의 동작 방법
KR20120006407A (ko) 로봇 청소기 및 이의 제어 방법
KR102063150B1 (ko) 사람을 식별하여 대인 동작을 수행하는 방법 및 이를 구현하는 로봇
JP7461399B2 (ja) 原動機付き車両の走行動作を補助する方法及びアシスト装置並びに原動機付き車両
KR101038702B1 (ko) 로봇의 위치 검출방법
KR20210155833A (ko) 다중 센서 및 인공지능에 기반하여 맵을 생성하고 노드들의 상관 관계를 설정하며 맵을 이용하여 주행하는 로봇 및 맵을 생성하는 방법
CN111429515A (zh) 基于深度学习的机器人避障行为的学习方法
US20240042630A1 (en) Method for eliminating misjudgment of reflective light and optical sensing system
KR102012548B1 (ko) 로봇의 진입 가능 영역을 식별하는 방법 및 이를 구현하는 로봇
KR102135369B1 (ko) 거리 검출 장치 및 그 방법
KR102420090B1 (ko) 이동 객체를 식별하여 맵을 작성하는 방법 및 이를 구현하는 로봇
KR20160090278A (ko) 이동 로봇 및 이의 제어 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant