KR20180096059A - 객체의 특성이 적용된 맵을 작성하는 방법 및 이를 구현하는 로봇 - Google Patents

객체의 특성이 적용된 맵을 작성하는 방법 및 이를 구현하는 로봇 Download PDF

Info

Publication number
KR20180096059A
KR20180096059A KR1020170022239A KR20170022239A KR20180096059A KR 20180096059 A KR20180096059 A KR 20180096059A KR 1020170022239 A KR1020170022239 A KR 1020170022239A KR 20170022239 A KR20170022239 A KR 20170022239A KR 20180096059 A KR20180096059 A KR 20180096059A
Authority
KR
South Korea
Prior art keywords
information
unit
robot
storage unit
signal
Prior art date
Application number
KR1020170022239A
Other languages
English (en)
Inventor
김동훈
손병곤
송현섭
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020170022239A priority Critical patent/KR20180096059A/ko
Priority to US15/893,141 priority patent/US10871781B2/en
Publication of KR20180096059A publication Critical patent/KR20180096059A/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1615Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
    • B25J9/162Mobile manipulator, movable base with manipulator arm mounted on it
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/51Display arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40506Self motion topology knowledge, configuration mapping
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

본 발명은 객체의 특성이 적용된 맵을 작성하는 방법 및 이를 구현하는 로봇에 관한 기술로 본 발명의 일 실시예에 의한 객체의 특성이 적용된 맵을 작성하는 로봇은 로봇의 이동을 제어하는 이동부, 로봇의 이동 시 참조하는 맵을 저장하는 맵 저장부, 로봇의 외부에 배치된 하나 이상의 객체를 센싱하는 센싱부, 및 이동부, 맵 저장부, 센싱부를 제어하며, 센싱된 객체의 위치 정보와 특성 정보를 산출하는 제어부를 포함하며, 로봇의 제어부는 센싱된 객체의 위치 정보와 특성 정보를 맵 저장부에 저장한다.

Description

객체의 특성이 적용된 맵을 작성하는 방법 및 이를 구현하는 로봇{METHOD OF DRAWING MAP APPLIED BY OBJECT FEATURE AND ROBOT IMPLEMENTING THEREOF}
본 발명은 객체의 특성이 적용된 맵을 작성하는 방법 및 이를 구현하는 로봇에 관한 기술이다.
공항, 학교, 관공서, 호텔, 사무실, 공장 등 인적, 물적 교류가 활발하게 발생하는 공간에서 로봇이 동작하기 위해서는 전체 공간에 대한 맵을 가져야 한다. 특히, 다양한 재질로 구성된 구조물들을 센싱하여 이들이 고정된 구조물인지 아니면 이동하는 구조물인지를 판별하고, 고정된 구조물을 기반으로 맵을 작성하는 것이 필요하다. 특히, 공항이나 항만, 기차역과 같이 다수의 사람들이 이동하는 공간에서는 콘트리트 외에도 유리를 이용하여 벽을 구성하는 경우가 빈번하며, 맵을 구성하기 위해 주변을 센싱하는 과정에서 유리가 센싱되지 않거나 혹은 유리 뒤쪽의 콘크리트가 센싱되는 경우가 발생할 수 있다. 이에, 이러한 문제점을 해결하기 위해, 본 명세서에서는 로봇이 맵을 생성하거나 업데이트 하는 과정에서 고정된 구조물의 재질을 센싱하고 이를 분석하여 맵을 생성 및 업데이트하는 방안을 제시하고자 한다.
본 명세서에서는 전술한 문제점을 해결하기 위한 것으로, 다양한 재질의 객체들이 배치된 공간에서 각 객체의 특성을 센싱하여 이를 토대로 맵을 구성하고 로봇이 맵을 이용하여 이동할 수 있도록 한다.
본 명세서에서는 장애물의 재질에 따라 잘못된 값이 획득되거나 획득이 되어지지 않는 경우를 방지하여 인해 정확한 맵 정보를 생성하도록 한다.
본 명세서에서는 장애물의 재질에 따라 맵 상에 달리 표시하도록 하여 로봇의 이동을 설계하는 과정에서 객체들의 특성을 반영할 수 있도록 한다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
본 발명의 일 실시예에 의한 객체의 특성이 적용된 맵을 작성하는 로봇은 로봇의 이동을 제어하는 이동부, 로봇의 이동 시 참조하는 맵을 저장하는 맵 저장부, 로봇의 외부에 배치된 하나 이상의 객체를 센싱하는 센싱부, 및 이동부, 맵 저장부, 센싱부를 제어하며, 센싱된 객체의 위치 정보와 특성 정보를 산출하는 제어부를 포함하며, 로봇의 제어부는 센싱된 객체의 위치 정보와 특성 정보를 맵 저장부에 저장한다.
본 발명의 다른 실시예에 의한 객체의 특성이 적용된 맵을 작성하는 방법은 로봇의 센싱부가 센싱 가능 범위 내의 하나 이상의 객체의 위치 정보와 특성 정보를 센싱하는 단계, 로봇의 제어부가 위치 정보와 특성 정보에서 센싱부의 신호가 투과하는 제1객체 및 센싱부의 신호가 불투과하는 제2객체를 식별하는 단계, 제어부가 제1객체의 위치 정보 및 특성 정보를 맵 저장부에 저장하는 단계, 및 제어부가 제2객체의 위치 정보를 맵 저장부에 저장하는 단계를 포함한다.
본 발명의 실시예들을 적용할 경우, 센서를 이용하여 맵울 작성하거나 수정하는 과정에서 장애물이 가지는 재질상의 특성을 반영하여 정확한 맵을 작성할 수 있다.
또한, 본 발명의 실시예들을 적용할 경우, 장애물의 재질에 따라 정확하게 객체의 정보를 센싱할 수 있으며, 또한 맵 상에 서로 상이한 재질의 장애물들에 대한 정보를 구분하여 저장 및 표시할 수 있다.
또한 본 발명의 실시예들을 적용할 경우, 로봇은 근접한 객체들의 특성에 따라 달리 동작할 수 있다.
본 발명의 효과는 전술한 효과에 한정되지 않으며, 본 발명의 당업자들은 본 발명의 구성에서 본 발명의 다양한 효과를 쉽게 도출할 수 있다.
도 1은 본 발명의 일 실시예에 의한 라이다(LiDAR) 센서의 구성을 보여주는 도면이다.
도 2는 본 발명의 일 실시예에 의한 로봇의 구성을 보여주는 도면이다.
도 3은 본 발명의 일 실시예에 의한 맵 저장부에 저장되는 맵의 구성을 보여주는 도면이다.
도 4는 객체 특성 저장부(220)에 저장되는 객체의 특성을 보여주는 도면이다.
도 5는 본 발명의 일 실시예에 의한 로봇이 벽과 유리가 배치된 공간에서 신호의 강도를 이용하여 구별하는 과정을 보여주는 도면이다.
도 6은 본 발명의 일 실시예에 의한 도 5에서 센싱된 객체들을 맵 저장부(200)에 저장한 도면이다.
도 7은 본 발명의 다른 실시예에 의한 로봇이 유리 뒷편에 배치되는 사물들과 유리를 구별하는 과정을 보여주는 도면이다.
도 8은 본 발명의 또다른 실시예에 의한 로봇이 유리가 없는 열린 공간 상에서 다양하게 배치된 사물들을 구별하는 과정을 보여주는 도면이다.
도 9는 본 발명의 일 실시예에 의한 가상의 경계선을 맵 저장부에 저장한 도면이다.
도 10은 본 발명의 일 실시예에 의한 로봇의 센싱부(100)가 유리벽을 감지하는 경우의 신호 강도의 변화를 보여주는 도면이다.
도 11 및 도 12는 본 발명의 다른 실시예에 의한 로봇의 센싱부(100)가 신호의 강도와 거리를 함께 센싱한 결과를 보여주는 도면이다.
도 13은 본 발명의 일 실시예에 의한 로봇이 객체의 특성이 적용된 맵을 작성하는 과정을 보여주는 과정을 보여주는 도면이다.
도 14는 본 발명의 일 실시예에 의한 라이다 센서가 객체의 반사 신호를 수신하는 과정을 보여주는 도면이다.
도 15는 본 발명의 일 실시예에 의한 제어부가 센싱된 외부의 객체의 정보를 맵 저장부에 저장하는 과정에 관한 도면이다.
도 16은 본 발명의 일 실시예에 의한 로봇이 주변의 객체의 특성 정보에 대응하여 상이하게 동작하는 과정을 보여주는 도면이다.
도 17은 본 발명의 일 실시예에 의한 다수의 로봇 사이에, 혹은 로봇과 서버 사이에 객체의 위치 및 특성 정보를 교환하는 과정을 보여주는 도면이다.
이하, 도면을 참조하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다. 또한, 본 발명의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다.
본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 다른 구성 요소가 "개재"되거나, 각 구성 요소가 다른 구성 요소를 통해 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.
또한, 본 발명을 구현함에 있어서 설명의 편의를 위하여 구성요소를 세분화하여 설명할 수 있으나, 이들 구성요소가 하나의 장치 또는 모듈 내에 구현될 수도 있고, 혹은 하나의 구성요소가 다수의 장치 또는 모듈들에 나뉘어져서 구현될 수도 있다.
이하, 본 명세서에서 로봇은 특정한 목적(청소, 보안, 모니터링, 안내 등)을 가지거나 혹은 로봇이 이동하는 공간의 특성에 따른 기능을 제공하며 이동하는 장치를 포함한다. 따라서, 본 명세서에서의 로봇은 소정의 정보와 센서를 이용하여 이동할 수 있는 이동수단을 보유하며 소정의 기능을 제공하는 장치를 통칭한다.
본 명세서에서 로봇은 맵을 보유하면서 이동할 수 있다. 맵은 공간에서 이동하지 않는 고정된 벽, 계단, 유리벽 등에 대한 정보를 의미한다. 또한, 로봇은 맵 위에 특정한 객체들에 대한 정보를 저장할 수 있다. 예를 들어, 객체가 유리와 같이 특정한 신호를 투과시키는 재질인 경우, 이를 벽과 구분하여 저장할 수 있다. 마찬가지로, 거울과 같이 반사 신호를 왜곡시키는 재질에 대해서도 정보를 저장할 수 있다. 빈 공간에 확장되어 배치되는 유리벽은 센싱 신호를 투과시켜 로봇이 거리를 정확하게 측정하지 못할 수 있으므로, 로봇이 이동하는 공간 내에서 벽과 유리 등 재질이 상이한 객체들의 정보를 구분하여 저장하고 이를 표시하거나 이용하는 것이 필요하다. 도 1은 본 발명의 일 실시예에 의한 라이다(LiDAR) 센서의 구성을 보여주는 도면이다. 본 발명의 일 실시예에 로봇은 라이다(Lidar) 센서를 이용하여 맵을 보완하거나 혹은 고정된 구조물의 재질 등을 식별할 수 있다. 라이다 센서는 외부의 장애물 혹은 이동체를 향해 출사시킨 레이저의 반사를 통해 사물까지의 위치(거리)나 방향, 사물의 속도나 온도, 혹은 물질 분포와 농도, 재질 등을 확인할 수 있다. 이를 위해 라이다 센서를 포함하는 센싱부(100)는 레이저를 출사시키는 레이저 송신부(110)와 레이저 수신부(120)로 구성될 수 있으며, 이에 더하여 수신된 신호를 분석하는 센싱 데이터 분석부(130)로 구성될 수 있다. 레이저 송신부(110)는 특정한 파장의 레이저 혹은 파장을 가변하는 것이 가능한 레이저 광원을 이용할 수 있다. 센싱 데이터 분석부(130)는 센싱된 객체와의 거리, 혹은 센싱된 객체의 온도나 속도, 재질과 같은 정보를 분석하여 센싱부(100)가 장착된 로봇에게 제공할 수 있다.
도 1에서 레이저 송신부(110) 및 레이저 수신부(120)를 통합하여 라이다 센서라고 지시할 수 있다. 다른 실시예로 라이다 센서는 센싱 데이터 분석부(130)와 레이저 송신부(110), 레이저 수신부(120)를 모두 포함할 수도 있다.
도 1은 센싱부의 일 실시예로 레이저를 이용하는 라이다 센서의 구성을 제시하고 있으나, 본 발명이 이에 한정되는 것은 아니며, 초음파 센서, 적외선 센서 등 다양한 센서를 이용하여 외부의 객체들에 대한 재질 혹은 이들 외부의 객체들로부터 반사된 신호의 강도(Intensity)를 확인할 수 있다. 또한 둘 이상의 센서들을 이용하고, 각 센서들이 식별한 정보의 특징을 반영하여 외부의 객체들에 대한 재질 혹은 이들 외부의 객체들로부터 반사된 신호의 강도를 확인할 수 있다.
도 2는 본 발명의 일 실시예에 의한 로봇의 구성을 보여주는 도면이다. 로봇(1000)은 외부의 이동 객체 혹은 고정 객체를 센싱하는 센싱부(100), 맵을 저장하는 맵 저장부(200), 이동을 제어하는 이동부(300), 로봇의 소정의 기능을 수행하는 기능부(400), 다른 로봇과 맵 또는 이동 객체, 고정 객체에 관한 정보를 송수신하는 통신부(500), 로봇(1000)이 취득한 정보를 표시하는 인터페이스부(600), 그리고 이들 각각의 구성요소들을 제어하는 제어부(900)를 포함한다.
제어부(900)는 센싱부(100)가 센싱한 정보들을 취합하여 센싱된 객체의 재질 또는 센싱된 객체의 특성을 분석하여 이를 맵 저장부(200)에 저장할 수 있다. 이동부(300)는 바퀴와 같이 로봇(1000)을 이동시키는 수단으로, 제어부(900)의 제어에 따라 로봇(1000)을 이동시킨다. 이때, 제어부(900)는 맵 저장부(200)에 저장된 영역에서 로봇(1000)의 현재 위치를 확인하여 이동부(300)에 이동에 필요한 제어 신호를 제공할 수 있다.
또한, 센싱부(100)에서 센싱된 외부의 객체의 존재 유무를 제어부(900)가 판별하여 이동부(300)의 이동을 제어할 수 있다. 기능부(400)는 로봇의 특화된 기능을 제공하는 것을 의미한다. 예를 들어, 청소 로봇인 경우 기능부(400)는 청소에 필요한 구성요소를 포함한다. 안내 로봇인 경우 기능부(400)는 안내에 필요한 구성요소를 포함한다. 기능부(400)는 로봇이 제공하는 기능에 따라 다양한 구성요소를 포함할 수 있다.
맵 저장부(200)는 맵(210)을 포함한다. 맵은 로봇(1000)이 이동할 수 있는 공간에 대한 정보를 의미한다. 맵은 전체 공간을 세분화된 단위 영역으로 나누어 단위 영역에 고정 객체가 배치된 정보를 저장한다. 맵(210)은 로봇(1000)이 이동하면서 로봇(1000)의 위치에서 주변에 배치된 객체를 확인하는데 사용될 수 있다. 또한 맵(210)은 로봇(1000)을 관리하는 사람에게 공간에 대한 정보를 제공할 수 있다. 따라서, 도 3의 맵(210)은 로봇(1000)이 이동하는 과정에서 참조하는 메모리 상의 정보가 될 수도 있고, 특정한 디스플레이를 통해 시각적으로 표시되는 정보가 될 수도 있다.
또한, 맵 저장부(200)는 객체특성 저장부(220)를 포함한다. 객체특성 저장부(220)는 센싱부(100)에서 출사한 신호가 수신되는 과정에서 취득한 외부 객체의 특성 정보를 저장한다. 예를 들어, 수신된 신호를 통해 확인한 외부 객체의 재질과 같은 특성 정보가 객체특성 저장부(220)에 저장될 수 있다. 특성 정보의 일 실시예로, 도 1의 레이저 송신부(110)가 송신한 신호가 레이저 수신부(120)에서 수신된 신호의 특성을 포함한다.
따라서, 맵 저장부(200)는 객체의 특성 정보를 범주화한 범주에 대한 정보를 저장하고, 이는 후술할 도 15와 같이 제어부(900)에 의해 범주가 재조정될 수 있다. 범주의 재조정은 전체 공간의 객체들을 범주에 따라 구분하여 표시하는 과정에서 보다 정확하게 공간의 객체들의 특성을 반영시키기 위함이다. 또한, 범주에 대한 정보는 로봇이 특정한 범주에 속하는 객체들에 근접하여 이동할 경우 동작 모드를 변경할 수 있도록 하므로, 공간 내에 배치되는 객체들의 특성을 반영하여 범주를 재조정할 수 있다.
라이다 센서를 적용하는 실시예에서 수신된 신호의 반사 강도(intensity) 정보가 반사된 물질의 재질에 따라 달라질 수 있다. 레이저를 전부 반사할 경우 강도는 세어지고, 레이저를 일부 흡수하거나 투과시킬 경우 강도는 약해질 수 있다. 따라서, 동일한 위치에 배치된 사물이라도, 사물의 재질에 따라 상이한 강도로 레이저 신호가 수신되며, 이를 이용하여 객체의 특성 정보로 저장할 수 있다.
본 발명의 실시예를 적용하여 라이다 센서의 경우 레이저를 이용하여 전/후방에 있는 객체, 즉 장애물에 대한 정보를 맵핑하며, 이들 장애물의 재질(유리, 콘크리트 벽 등)에 따라 서로 다른 레이저 신호의 반사 강도(Intensity) 정보를 획득할 수 있다. 본 명세서에서는 센싱된 거리 정보만을 이용하여 맵핑하지 않고, 센싱된 거리 정보에 더하여 서로 다른 강도에 대한 모든 거리 값을 이용하여 맵핑을 수행하여, 더 많은 외부의 객체들에 대한 정보를 획득할 수 있다.
특히, 맵 상에서 신호의 강도(Intensity) 구간 별로 장애물, 즉 객체에 대해 상이한 식별 기호(컬러, 숫자 등)를 부여하여 장애물의 재질에 따른 구분 및 불필요한 장애물을 제거하기 위한 참조 맵으로 사용할 수 있다.
이동부(300) 또는 기능부(400)는 로봇의 현재 위치에서 인접하게 배치된 객체의 특성 정보에 대응하여 상이하게 동작할 수 있다.
이동부(300)는 로봇(1000)을 이동시킨다. 이동부(300)는 제어부(900)의 제어에 따라 이동할 수 있는데, 특히, 로봇(1000)의 현재 위치에서 주변에 배치된 객체들의 특징에 따라 상이한 방식으로 이동할 수 있다. 예를 들어, 후술할 도 3의 실시예에서 범주 9에 해당하는 객체(예를 들어 벽)에 접근하도록 이동하는 경우에는 속도를 높이고, 범주 3에 해당하는 객체(예를 들어 유리)에 접근하도록 이동하는 경우에는 속도를 낮출 수 있다.
기능부(400)는 특정한 동작, 예를 들어 청소, 보안 등의 기능, 안내 기능 등을 수행한다. 기능부(400)는 로봇(1000)의 현재 위치에서 주변에 배치된 객체들의 특징에 따라 상이한 동작을 수행할 수 있다. 예를 들어, 후술할 도 3의 실시예에서 범주 9에 해당하는 객체(예를 들어 벽)에 인접하여 수행하는 기능과, 범주 3에 해당하는 객체(예를 들어 유리)에 인접하여 수행하는 기능을 달리 할 수 있다.
정리하면, 이동부(300) 및 기능부(400)는 진행 방향 또는 인접하게 배치된 객체의 특성 정보에 따라 상이하게 동작할 수 있다.
도 3은 본 발명의 일 실시예에 의한 맵 저장부에 저장되는 맵의 구성을 보여주는 도면이다. 도 1 및 도 2에서 살펴본 센싱부(100)가 로봇(1000)이 이동하며 센싱한 공간 정보를 저장한다.
도 3의 맵(210a)은 일종의 비트맵과 같이 구성할 수 있다. 이미지 파일의 비트맵에서 각 비트가 하나의 단위 영역을 나타내도록 구성할 수 있다. 각 단위 영역은 좌측 하단을 (0, 0)으로, 우측 상단을 (19, 19)로 지시할 수 있다. 또한, 도 3의 210a은 20x20 구조의 데이터 구조를 가질 수 있다. 예를 들어, 각 위치에 대해 객체가 배치되는지 여부에 대한 정보를 포함할 수 있다. 일종의 행렬과 같이 정보를 배치하고, 고정 객체가 배치되는 경우에는 해당 행렬의 값을 미리 설정된 값으로 설정할 수 있다.
또한, 맵 저장부(200)는 고정 객체들로 구성된 맵(210) 외에도 객체들에 대한 특성 정보를 저장할 수 있는데, 객체에 대한 특성 정보는 객체 특성 저장부(220)에 저장된다. 그리고 이들 정보 역시 맵(210) 상에 표시될 수 있다.
도 3의 맵(210a)에서 검은 색으로 표시된 부분(211)은 콘트리트와 같이 빛이 전혀 투과하지 않는 재질의 객체를 나타낸다. 한편 212에서 지시하는 부분은 반투명 유리와 같이 빛이 일부 투과되고 일부 반사되는 재질의 객체를 나타낸다. 또한, 213에서 지시하는 부분은 유리와 같이 빛의 투과도가 높은 재질의 객체를 나타낸다.
도 3의 맵(210a)에는 20x20의 비트맵 공간 중에서 각 공간의 객체 특성의 범주값으로 설정될 수 있다.
일 실시예로는 20x20의 비트맵 공간에서 객체 특성의 범주에 따라 상이한 컬러로 표시하는 방식이 있다. 예를 들어, 도 3에서 211에서 지시되는 검은 색 부분은 검은 색으로 표시하며, 212는 노란 색으로, 213은 붉은 색으로 표시하는 방식이 적용될 수 있다. 또는 도 3에 나타난 바와 같이, 상이한 무늬로 표시하는 방식이 있다.
또 다른 실시예로는 상이한 숫자로 표시하는 방식이 있다. 211에서 지시되는 검은 색 부분에는 가장 높은 강도의 범주인 9가 설정되고, 212에서 지시되는 부분에는 이보다 낮은 강도의 범주인 7, 그리고 213에서 지시되는 부분에는 이보다 더 낮은 강도의 범주인 3이 설정될 수 있다.
도 4는 객체 특성 저장부(220)에 저장되는 객체의 특성을 보여주는 도면이다.
객체 특성 저장부(220)는 객체 특성의 범주의 정보를 저장하는 범주 저장부(221) 및 객체의 위치 및 강도에 대한 정보가 저장되는 위치 저장부(225)로 나뉘어진다. 범주 저장부(221)는 필드(221a) 및 데이터(221b)로 나뉘어지며 이는 로봇이 주행하는 공간의 특성에 따라 다양하게 구성될 수 있다.
일 실시예로 카테고리(Category) 필드는 객체의 특성의 범주를 나타낸다. 도 4에서 221b와 같이 4 종류의 카테고리가 제시되어 있다. 그리고 각 카테고리별로 맵에 표시할 경우의 색상(Color)가 설정될 수 있다. Intensity_Min과 Intensity_Max는 반사 강도의 범위를 의미한다. 이는 도 1의 레이저 수신부(120)에서 수신한 반사 신호의 강도의 값에 따라 설정될 수 있으며, 이를 새로이 변환한 값이 될 수 있다.
예를 들어, 도 4에 기반하여 반사 신호의 강도가 실제로 0 내지 100 사이의 값을 가질 수 있다. 다른 실시예로, 반사 신호의 강도는 실제로는 0 내지 10000 사이의 값을 가지지만 이를 0 내지 100의 값으로 변환할 수 있다. 변환하는 방식은 100으로 나누는 방식, 혹은 소정의 해쉬 태이블 또는 함수를 이용하여 변환하는 방식 등이 가능하다. 예를 들어, 반사 신호의 강도가 0 내지 10000 사이에 속하지만, 로봇이 주행한 결과 의미있는 반사 신호의 강도는 3000에서 5000 사이인 경우, 이를 기준으로 0 내지 100으로 변환할 수 있다.
또한, 로봇과 객체의 거리를 통해 신호의 강도를 정규화(normalization) 시키는 과정을 추가할 수 있다. 즉, 객체와의 거리가 10미터 인 경우의 신호의 강도와 객체와의 거리가 5미터인 경우의 신호의 강도는 다르므로, 이를 기준 거리에서의 신호의 강도로 변환하여 객체 특성 저장부(220)에 저장할 수 있다.
Material_1 내지 Material_3은 각 범주에 대응하는 객체의 재질에 대한 정보이다. 이는 레이저 센서의 반사 강도에 따라 미리 설정될 수도 있고, 로봇의 다른 센서에서 센싱된 정보 혹은 미리 제공되는 정보에 기반하여 설정될 수 있다.
도 4의 221에는 4 종류의 범주가 있으며, 이 중에서 1은 빈공간을 의미한다. 9는 콘크리트, 불투명한 재질 등으로 구성된 객체의 특성을 지시한다. 7은 반투명 유리 혹은 반투명 아크릴 등으로 구성된 객체의 특성을 지시한다. 3은 유리 또는 투명한 아크릴 등으로 구성된 객체의 특성을 지시한다.
여기서 범주는 로봇이 주행 중 센싱한 정보들을 토대로 재구성할 수 있다. 예를 들어, 7이라는 범주에는 속하지만 특정한 강도의 값을 가지는 객체가 다수 존재하는 것으로 센싱될 경우, 이 객체를 위해 별도의 범주를 추가할 수 있다. 즉 7이라는 범주에 속하지만 50~55 사이의 반사 강도를 가지는 객체가 다수 센싱될 경우, 6이라는 범주를 새로 추가할 수 있다.
위치 저장부(225)는 센싱부(100)가 센싱한 객체의 위치 및 특성에 대한 정보를 저장한다. 센싱된 모든 객체의 위치, 정규화한 신호의 강도(Intensity) 및 특성에 대한 정보를 저장하는 것을 일 실시예로 한다. 또한, 센싱된 객체 중 특정 범주에 속한 객체들의 위치 및 특성에 대한 정보를 저장하는 것을 다른 실시예로 한다.
예를 들어, 도 3에서 맵(210a)에는 범주가 9 에 해당하는 객체들에 대한 위치 정보가 211과 같이 기본적으로 저장될 수 있다. 그리고 범주가 212 및 213에서 지시하는 7 또는 3인 객체들의 위치 및 특성에 대한 정보만 위치 저장부(225)에 저장될 수 있다. 이는 공간 내에 주도적으로 배치되는 객체들의 특성에 따라 다양하게 적용할 수 있다.
도 4의 225에서는 도 3의 212 및 213에서 지시하는 객체들에 대한 위치 정보가 저장된 위치 저장부의 실시예를 보여준다.
위치 저장부(225)는 필드(225a) 및 데이터(225b)로 구성된다. 필드는 시리얼(Serial), 범주(Category), 신호의 강도(Intensity), 그리고 객체의 시작 지점(StartX, StartY)와 종료 지점(EndX, EndY)에 대한 정보를 포함한다. 위치 저장부(225)의 데이터(225b)는 도 3의 212 및 213에서 지시되는 객체들의 위치 및 이들의 범주에 대한 정보가 저장한 실시예를 보여준다.
도 4에 제시된 바와 같이, 맵 저장부(200)는 객체 및 객체가 반사한 신호의 강도가 포함된 범주에 따라 구별하여 객체의 정보를 저장한다. 그리고, 로봇은 저장한 정보를 구별하여 표시할 수 있다. 즉, 로봇(1000)의 인터페이스부(600)는 맵 저장부(200)에 저장된 객체의 정보를 신호의 강도가 포함된 범주에 따라 상이하게 표시할 수 있다. 상이하게 표시하는 실시예로는 각 범주에 대해 컬러를 상이하게 설정하는 것을 의미한다. 다른 실시예로, 각 범주에 대해 상이한 무늬로 객체를 표시할 수 있다. 앞서 도 3에서 상이한 무늬 또는 색상으로 객체들을 구별하여 표시하는 실시예를 살펴보았다.
도 4에서 제시하는 범주(Category)는 미리 외부적으로 설정될 수도 있으나, 로봇(1000)의 제어부(900) 및 맵 저장부(200)가 저장된 정보를 재그룹하여 특정한 범주에 포함되는 객체들을 둘 이상의 범주로 분리하거나, 혹은 둘 이상의 범주에 포함되는 객체들을 하나의 범주로 통합할 수 있다.
또한, 공간의 구성적 특징에서 유리와 같이 라이다 센서가 송신한 신호가 투과되는 공간이 다수 배치되는 경우, 유리를 벽으로 인식할 수 있도록 하여 장애물과 같은 외부의 객체의 재질에 따라 잘못된 값이 획득되거나 획득이 되어지지 않는 경우를 방지할 수 있다. 또한, 이러한 로봇을 구현하여 정확한 맵 정보를 생성할 수 있다.
도 5는 본 발명의 일 실시예에 의한 로봇이 벽과 유리가 배치된 공간에서 신호의 강도를 이용하여 구별하는 과정을 보여주는 도면이다. 센싱부(100)가 전방으로 180도 범위 내에서 신호를 송신 및 수신하는 구성에 대해 살펴본다. 센싱부(100)는 전방 180도 내에 신호를 순차적으로, 혹은 동시에 송신하고, 외부의 객체로부터 반사되는 신호를 수신한다. 벽(11a, 11b, 12)과 같이 센싱부(100)가 송신한 신호가 투과하지 않는 영역에서는 신호의 강도가 높으며, 유리와 같이 센싱부(100)가 송신한 신호가 일부 투과하는 영역에서는 신호의 강도가 낮다.
센싱부(100)가 센싱한 신호의 강도는 하단의 그래프(51)와 같이 표시된다. 설명의 편의를 위하여 센싱부(100)를 중심으로 -45도에서 +45도 사이의 객체의 센싱된 신호의 강도를 보여준다. 유리(10)를 투과하여 유리 뒷편에 배치된 벽(12)으로부터 신호가 반사되어 일부 신호가 수신되며, 또한, 유리(10)를 투과하지 못한 일부 신호가 수신되는 영역(10a)에서의 신호의 강도는 앞쪽의 벽(11a, 11b)에서 반사된 신호의 강도보다 작다.
한편, 센싱부(100)가 센싱한 신호의 거리는 하단의 그래프(52)와 같이 표시된다. 설명의 편의를 위하여 센싱부(100)를 중심으로 -45도에서 +45도 사이의 객체의 센싱된 거리를 보여준다. 유리(10)를 투과하여 유리 뒷편에 배치된 벽(12)으로부터의 거리가 산출된다. 또한, 센싱부(100)의 구성에 따라, 유리(10)를 일부 투과하지 못하여 반사된 신호를 통한 거리 역시 10a 내에서의 점선과 같이 산출될 수 있다. 신호의 거리는 센싱부(100)를 중심으로 한 각도를 반영하여 보정한 값이 52와 같이 표시될 수 있다.
도 5의 실시예에서 센싱부(100)가 센싱한 신호의 강도(Intensity) 및 거리(Distance)에 대한 정보는 제어부(900)에게 전달되고, 제어부(900)는 외부 객체들에 대해 센싱된 정보들을 기준으로 맵 저장부(200)에 객체의 정보를 저장할 수 있다. 10a 영역에서 신호의 강도가 약해지는 부분과 신호의 거리가 길어지는 부분에서 반사된 신호의 강도와 거리를 비교하여, 유리(10)가 배치되어 있음을 확인할 수 있다.
일 실시예로, 유리(10)가 없을 경우 예상되는 신호의 강도보다 10a영역에서의 신호의 강도가 더 낮거나 혹은 더 높은 경우에는 벽(12)과 센싱부(100) 사이에 빛을 투과하거나 반사하는 등, 신호의 강도를 왜곡시키는 객체가 배치되어 있음을 제어부(900)가 확인할 수 있다. 또한, 10a영역에서 유리(10)로부터 반사되는 미세한 신호의 거리를 통해 52에 점선으로 표시된 신호 역시 유리(10)가 배치되어 있음을 확인하는 요소가 될 수 있다.
도 5와 같은 구조에서 제어부(900)와 맵 저장부(200)는 신호의 강도 및 신호의 거리를 보정하여 저장할 수 있다. 유리(10)가 배치된 영역에서는 유리 및 뒷편의 벽(12) 모두 맵 상에 저장할 수 있다.
도 6은 본 발명의 일 실시예에 의한 도 5에서 센싱된 객체들을 맵 저장부(200)에 저장한 도면이다. 맵(210b)에는 도 5의 벽(12)의 일부(12a)만이 표시되는데, 이는 앞쪽의 벽들(11a, 11b)로 인해 뒤쪽의 벽(12)의 일부 영역은 거리가 센싱되지 않기 때문이다. 또한 유리(10)는 벽들과 상이하게 표시되도록 맵(210b)에 저장된다.
또한, 공간 사이에 배치되며 인접한 영역의 객체인 벽(11a, 11b)들과 다른 종류의 재질을 가지는 객체(도 5 및 6에서 유리)는 쉽게 제거될 수도 있으므로, 특정 범주에 들어가는 객체들에 대해서는 센싱된 시간에 대한 정보를 추가적으로 저장할 수 있다.
예를 들어, 도 4의 위치 저장부(225)에 SensingTime이라는 필드를 더 추가하고, 해당 객체가 센싱된 시간에 대한 정보를 지속하여 업데이트 할 수 있으며, 센싱 시간이 일정 기간이상 지난 객체에 대해서는 해당 객체가 제거되었는지 여부를 새로이 센싱하여 업데이트할 수도 있다.
특히, 공항, 터미널과 같이 유동인구가 많으며 공간의 구획이 자주 변경되는 곳에서는 유리를 이용하여 새로운 공간을 구획하거나 혹은 이미 존재하는 공간을 제거할 수 있으므로, 콘크리트와 같이 쉽게 제거하기 어려운 범주에 속하는 객체가 아닌 경우, 유동적인 객체로 판단하여 주기적으로 혹은 특정한 시점을 기준으로 객체들이 그대로 배치되어 있는지 여부를 확인할 수 있다.
라이다 센서와 같이 외부의 객체를 센싱하는 과정에서 신호의 강도(Intensity) 정보와 거리 정보를 동시에 획득이 가능할 경우, 이들 정보를 이용하여 외부의 객체에 대한 정보를 상세하게 획득할 수 있다. 즉, 장애물과 같은 객체의 재질에 따라 서로 다른 강도에 대한 모든 거리 값을 이용하여 매핑을 할 경우 더 많은 장애물 정보의 획득이 가능하다.
또한, 도 4에서 살펴본 바와 같이, 신호의 강도에 대한 구간을 범주로 그룹핑하여 장애물에 컬러나 숫자, 해칭 무늬를 부여하여 장애물의 재질에 따른 구분 및 불필요한 장애물을 제거하기 위한 참조 자료로 사용하여 보다 정확한 맵 생성이 가능하다.
도 7은 본 발명의 다른 실시예에 의한 로봇이 유리 뒷편에 배치되는 사물들과 유리를 구별하는 과정을 보여주는 도면이다.
도 5의 구성과 달리, 유리(10) 뒷편에는 다수의 진열대(15)가 배치되어 있다. 따라서, 이들 진열대(15)에서 반사되는 신호의 강도와 거리는 도 5에서 살펴본 사항과 상이하다.
진열대(15)에서 반사된 신호의 강도는 신호 강도 그래프(71)에서의 71a 부분과 같다. 진열대(15)에서 측정된 거리는 신호 거리 그래프(72)에서의 72a 부분과 같다. 72에서의 점선은 유리와의 거리를 의미한다. 제어부(900)는 71 및 72와 같이 센싱된 정보에서 맵에 정보를 저장하는 과정에서 진열대(15)를 맵에 저장하지 않고, 전면의 유리(10)와 뒷편의 벽(12)을 저장할 수 있다. 이는 71 및 72의 10b 영역에서 신호가 짧은 범위 내에 급격히 변화하는 경우 제어부(900)가 10b 영역을 유리 뒷편에 다양한 사물들이 배치됨으로 인해 신호의 강도와 거리가 변화하는 것으로 맵 저장부(200)에 저장할 수 있다. 도 7에서 센싱된 객체들을 맵 저장부(200)에 저장한 도면은 도 6과 동일할 수 있다.
도 8은 본 발명의 또다른 실시예에 의한 로봇이 유리가 없는 열린 공간 상에서 다양하게 배치된 사물들을 구별하는 과정을 보여주는 도면이다.
도 7의 구성과 달리, 다수의 진열대(15)가 배치되어 있으나 진열대(15) 전면에는 유리 또는 벽과 같은 다른 객체가 배치되지 않은 실시예이다. 따라서, 이들 진열대(15)에서 반사되는 신호의 강도와 거리는 도 7에서 살펴본 사항과 상이하다.
진열대(15)에서 반사된 신호의 강도는 신호 강도 그래프(81)에서의 81a 부분과 같다. 진열대(15)에서 측정된 거리는 신호 거리 그래프(82)에서의 82a 부분과 같다. 도 7과 달리 유리와의 거리는 신호 거리 그래프(82)에 배치되어 있지 않다.
제어부(900)는 81 및 82와 같이 센싱된 정보에서 맵에 정보를 저장하는 과정에서 진열대(15)를 맵에 저장하지 않고, 인접한 벽(11a, 11b)의 확장 구간된 구간과 뒷편의 벽(12)을 저장할 수 있다. 센싱부(100)와 진열대(15) 사이에는 로봇(1000)의 이동에 장애가 되는 객체가 존재하자 않는 것은 81 및 82의 그래프를 통하여 제어부(900)가 확인할 수 있다.
그러나 제어부(900)는 센싱된 신호의 강도가 벽(11a, 11b)에서 센싱된 신호의 강도와 비교하여 거리 보정을 한 이후에도 서로 상이한 경우, 진열대(15)와 벽(11a, 11b) 사이의 거리가 미리 설정된 값 이내라고 판단할 경우, 진열대(15)까지 로봇이 진입하지 않고, 벽(11a, 11b)에서 확장된 영역에 객체가 가상으로 존재하는 것으로 맵 저장부(200)에 저장할 수 있다.
이 경우, 제어부(900)는 좌측 전면부의 벽(11a) 및 우측 전면부의 벽(11b) 사이에 가상의 유리가 있는 것으로 맵 저장부(200)에 저장할 수 있다. 혹은 유리가 아닌, 가상의 경계선에 대한 정보를 맵 저장부(200)에 저장할 수 있다.
도 9는 본 발명의 일 실시예에 의한 가상의 경계선을 맵 저장부에 저장한 도면이다. 90으로 지시되는 영역은 도 8의 는 좌측 전면부의 벽(11a) 및 우측 전면부의 벽(11b) 사이의 공간에 가상의 경계선, 즉 가상의 벽을 지시한다. 마찬가지로, 범주 저장부(221)에는 이에 대응하는 범주(-1)에 대한 정보가 저장된다. "-1"이라는 카테고리를 가지는 영역은 사물이 배치되어 있지 않으나 진입하지 않는 공간으로 인식하여 로봇(1000)은 이동 과정에서 90영역에 대해서는 벽이 배치된 것과 동일하게 동작할 수 있다.
전술한 본 발명의 실시예들을 살펴보면, 로봇(1000)은 외부에 배치되는 객체들의 재질 특성 별로 구별하는 맵(컬러, 또는 무늬 등)을 구성하여 장애물을 구분할 수 있다. 또한 로봇(1000)은 장애물들의 재질 특성을 반영한 맵을 생성하여 맵 정보의 활용이 필요한 다양한 응용 분야에 사용이 가능하다.
예를 들어, 로봇(1000)이 이동하는 과정에서 벽과 유리를 구분하여 동작하는 것이 필요할 경우, 맵 상에 저장된 상이한 특성의 객체들의 구분된 정보에 따라 로봇(1000)은 이동할 수 있다.
정리하면, 로봇(1000)의 제어부(900)는 맵 저장부(200)에 센싱되지 않은 가상의 객체에 대한 정보를 저장할 수 있다. 가상의 객체는 가상의 벽과 같이 해당 위치에 객체가 배치되지 않음에도 인접한 객체들(진열대 등)로 인해 가상으로 장애물이 있는 것처럼 맵 저장부(200)에 저장하는 것을 일 실시예로 한다.
도 10은 본 발명의 일 실시예에 의한 로봇의 센싱부(100)가 유리벽을 감지하는 경우의 신호 강도의 변화를 보여주는 도면이다.
벽이 배치된 경우(Wall)와 달리 유리벽이 배치된 경우(Wall w/Glass) 91에서 지시하는 영역과 같이 신호의 강도가 불균질하게 변화함을 확인할 수 있다. 이는 벽 사이에 유리가 배치되거나, 벽 앞에 유리가 배치되는 등 신호의 강도를 저감시키는 객체가 배치된 경우를 보여준다.
센싱부(100)에서 도 10과 같이 센싱할 경우, 콘크리트와 상이한 재질의 객체가 배치된 것을 확인할 수 있으므로, 상이한 재질의 객체에 대한 정보를 맵 저장부(200)에 달리 저장하여 로봇(1000)이 이동할 경우 이를 참조할 수 있다.
또한, 객체의 재질이 반영된 정보는 다른 로봇들과 공유하거나 중앙 서버로 전송될 수 있다. 이는 중앙 서버에서 공간을 구성하는 객체들의 특징을 파악하는 근거가 될 수 있다. 또한, 신호의 반사 강도가 가지는 오차 혹은 범위를 고려하여 도 4에서 살펴본 바와 같이 범주화를 적용하여 객체들의 특성을 그룹핑할 수 있다.
도 11 및 도 12는 본 발명의 다른 실시예에 의한 로봇의 센싱부(100)가 신호의 강도와 거리를 함께 센싱한 결과를 보여주는 도면이다. 도 11에서 92가 지시하는 영역은 신호의 강도가 강한 영역을 보여준다. 도 11에서 93은 신호의 강도가 약하면서 먼 거리에 객체가 배치되는 것을 보여준다. 그런데, 93과 같은 영역의 폭이 크지 않으므로, 이는 벽에 반사 물질이 배치되거나 혹은 유리가 배치되어 있는 영역이 될 수 있다. 이에, 제어부(900)는 도 11과 같이 센싱된 데이터를 기반으로 도 12와 같이 벽(94)이 배치된 것으로 맵 저장부(200)에 저장할 수 있다.
도 13은 본 발명의 일 실시예에 의한 로봇이 객체의 특성이 적용된 맵을 작성하는 과정을 보여주는 과정을 보여주는 도면이다.
로봇(1000)의 센싱부(100)가 센싱 가능 범위 내의 하나 이상의 객체의 거리 정보와 특성 정보를 센싱한다(S1310). 그리고 로봇(1000)의 제어부(900)가 거리 정보와 특성 정보에서 센싱부(100)의 신호가 투과하는 제1객체 및 센싱부(100)의 신호가 불투과하는 제2객체를 식별한다(S1320). 일 실시예로 제1객체는 유리가 될 수 있으며, 제2객체는 콘크리트로 구성되는 벽이 될 수 있다.
제1객체는 투과성이라는 특성을 가지므로, 제어부(900)는 제1객체의 위치 정보와 특성 정보를 맵 저장부(200)에 저장한다(S1330). 특성 정보가 저장되는 실시예는 도 2 및 도 4에서 살펴본 바와 같다.
그리고 제어부(900)는 제2객체의 위치 정보를 맵 저장부(200)에 저장한다(S1340). 여기서 제2객체의 특성 정보는 선택적으로 맵 저장부(200)에 저장될 수 있다.
본 발명의 일 실시예에 의하면, 전체 공간에서 기준이 되는 특성(콘크리트 벽과 같은)을 가지는 제2객체에 대해서는 불변하는 고정객체로 저장하며, 제1객체에 대해서는 가변객체로 저장할 수 있다. 가변객체로 저장할 경우, 제1객체에 대한 센싱 시간 정보가 맵 저장부(200)에 저장되는 것을 일 실시예로 한다.
여기서 제1객체 또는 제2객체의 일 실시예는 맵 저장부에 저장하는 단위에 대응하여 배치되는 객체를 의미한다. 예를 들어 로봇의 전면에 1m x 1m 넓이의 유리가 있고, 로봇은 10cm 단위로 정보를 저장할 때, 로봇은 전면에 배치된 1m 폭의 유리에 대해 10cm 크기의 10개의 객체들의 거리 정보 및 센싱된 신호의 강도에 대한 정보를 저장할 수 있다.
도 13의 과정에 추가적으로, 도 9에서 살펴본 바와 같이, 제어부(900)는 맵 저장부(200)에 센싱되지 않은 가상의 객체에 대한 정보를 저장하는 단계를 더 포함할 수 있다. 이는, 진열대가 배치되는 공간에 로봇(1000)이 더 이상 진입하지 않도록 가상의 벽을 맵 상에 저장하는 것을 의미한다. 가상의 벽은 인접한 벽 또는 인접한 특수한 재질의 객체들에 연장하여 배치할 수 있다. 도 9에서는 11a 및 11b의 연장선에 가상의 벽(90)을 배치한 실시예를 살펴보았다.
도 14는 본 발명의 일 실시예에 의한 라이다 센서가 객체의 반사 신호를 수신하는 과정을 보여주는 도면이다. 도 1에서 살펴본 바와 같이, 센싱부(100)는 라이다 센서로, 레이저 송신부(110), 레이저 수신부(120), 그리고 센싱 데이터 분석부(130)를 포함할 수 있다.
레이저 송신부(110)가 신호, 즉 레이저 신호를 송신한다(S1311). 그리고 레이저 수신부(120)가 송신한 신호가 제1객체에서 반사된 신호를 수신한다(S1312). 그리고, 레이저 수신부는 제1객체 후면에 배치된 제3객체에서 반사된 신호를 수신한다(S1313). 제1객체는 유리와 같이 신호의 일부를 투과시키며, 제3객체에서 반사된 신호는 제1객체를 투과하여 전달된 신호이므로, 신호의 강도가 약하게 된다. 따라서, 이러한 약해진 신호의 강도가 제1객체의 특성으로 저장될 수 있다.
즉, 로봇의 센싱 데이터 분석부는 반사된 신호의 강도 및 제1객체와 제3객체의 거리 정보를 제어부에 전달한다(S1314). 따라서, 센싱된 객체 특성은 상기 제1객체 또는 제3객체에서 반사되어 상기 레이저 수신부에 수신된 신호의 강도(Intensity)를 포함할 수 있다.
도 15는 본 발명의 일 실시예에 의한 제어부가 센싱된 외부의 객체의 정보를 맵 저장부에 저장하는 과정에 관한 도면이다.
외부의 객체의 정보를 저장하는 과정, 즉 S1330 단계를 보다 상세히 진행하면, 제어부(900)가 제1객체의 신호의 강도가 포함된 범주에 따라 구별하여 제1객체의 정보를 맵 저장부(200)에 저장한다. 보다 상세히 도 15의 순서도를 살펴본다.
제어부(900)는 센싱 데이터 분석부(130)가 제공하는 제1객체의 신호 강도를 거리 정보를 이용하여 정규화한다(S1331). 로봇의 전면 10미터에 배치된 유리로부터 반사되는 신호의 강도와 전면의 5미터에 배치된 유리로부터 반사되는 신호의 강도는 상이하다. 또한, 정규화 과정에서 인접한 불투명한 객체와의 거리를 참고할 수 있다.
예를 들어, 도 5에서 10이 지시하는 유리의 신호 강도를 정규화하는 과정에서 11a 또는 11b의 객체와의 거리를 참고할 수 있다. 다만, 공간이 돌출하거나 함몰된 공간도 존재할 수 있으므로, 인접한 다른 재질의 객체와의 거리는 맵 상에서 로봇이 위치한 주변 공간의 정보를 반영하여 참고할 수 있다.
이후, 제어부(900)는 정규화한 신호 강도가 포함된 범주를 맵 저장부(200)에서 확인한다(S1332). 도 4의 범주 저장부(221)에서 정규화한 신호 강도가 Intensity_Min과 Intensity_Max 사이에 포함되는지를 확인할 수 있다. 범주가 존재하는 경우(S1333), 존재하는 범주에 따라 제1객체의 정보를 저장한다(S1337). 맵(210)에 제1객체의 위치 정보를 저장할 수 있고, 위치 저장부(225)에 제1객체의 위치 정보, 범주에 대한 정보, 그리고 신호의 강도에 대한 정보를 저장할 수 있다.
한편, 제어부(900)는 공간 내에 배치되는 객체들의 신호의 강도의 특성과 범주가 적절하게 대응되는지를 확인한다. 일 실시예로, 제1객체의 정보가 범주 내에서 경계에 배치되는지 혹은 중간에 배치되는지를 확인한다(S1338). 예를 들어, 제1객체의 정규화한 신호 강도가 Category_6 이라는 범주에 들어가며 Category_6의 범주는 600에서 800 사이의 신호 강도인 경우를 가정한다. 제1객체의 신호 강도가 601이면 Category_6이라는 범주의 경계 영역에 배치됨을 의미한다. 이 경우, 다른 객체의 신호 강도를 맵 저장부(200)에서 검색하여 새로운 범주를 생성할 수 있다. 이는 맵 상에서 범주 별로 객체들을 달리 표시하는 과정에서 서로 구별이 필요한 객체들을 구분하기 위한 실시예이다.
S1338의 경계에 배치되는지 여부의 추가적인 실시예로, 제어부(900)는 해당 범주에 해당하는 객체들의 신호의 강도의 평균값, 분산값, 또는 표준편차 등을 산출할 수 있다. Category_6 라는 범주 내에 속하는 객체들이 600에서 650 사이의 신호 강도를 가지는 제1그룹과 760에서 790 사이의 신호 강도를 가지는 제2그룹으로 구분될 경우, Category_6-1 및 Category_6-2로 나누어 보다 정확하게 상이한 재질의 객체들을 구분할 수 있다.
한편, S1333에서 객체의 신호 강도에 대응하는 범주가 존재하지 않는 경우, 제1객체의 신호 강도에 일정한 마진(margin)을 포함시켜 범주를 새로이 생성할 수 있다(S1334). 예를 들어 도 4에서 신호의 강도가 100 이상인 경우가 발생한다면 이를 포함하는 새로운 범주가 추가될 수 있다. 그리고 생성한 범주에 따라 제1객체의 정보를 저장한다(S1335).
도 15를 살펴보면, 로봇의 제어부(900)는 맵 저장부(200)에 저장된 객체의 특성 정보에 따라 범주를 재조정할 수 있다.
도 16은 본 발명의 일 실시예에 의한 로봇이 주변의 객체의 특성 정보에 대응하여 상이하게 동작하는 과정을 보여주는 도면이다.
앞서, 기능부(400) 또는 이동부(300)는 로봇의 현재 위치에서 인접하게 배치된 객체의 특성 정보에 대응하여 상이하게 동작하는 것에 대해 살펴보았다. 이를 보다 상세히 살펴본다.
제어부(900)는 진행 방향에 배치된 객체의 특성 정보를 맵 저장부(200)에서 확인한다(S1610). 그리고 객체의 범주가 "Risk_Category"인지 확인한다(S1620). "Risk_Category"는 제어부(900) 또는 맵 저장부(200)에 미리 설정된 것으로, 도 4에서 범주가 3인 객체들이 "Risk_Category"에 포함되는 것을 일 실시예로 한다.
S1620에서 객체의 범주가 "Risk_Category"가 아닌 경우, 제어부(900)는 이동부(300) 또는 기능부(400)를 일반 대응 모드로 유지한다(S1630). 한편, S1620에서 객체의 범주가 "Risk_Category"인 경우, 제어부(900)는 이동부(300) 또는 기능부(400)를 Risk_Category 대응 모드로 유지한다(S1640). Risk_Category 대응 모드는 외부에 배치된 객체가 파손 가능성이 있는 재질인 것으로 판단하여 이동 속도를 줄이는 것을 일 실시예로 한다.
또한, 기능부(400)가 청소를 수행하는 기능인 경우, 청소 과정에서 외부의 객체가 손상되지 않도록 한다. 예를 들어, 물걸레 기능을 수행할 경우, 물걸레의 회전 속도를 줄이거나 월팔로잉(Wall-Following) 청소 기능에서 객체와의 거리를 멀리하는 등을 의미한다.
본 명세서에서 살펴본 실시예들은 라이다(LiDAR) 센서가 외부의 객체를 센싱하는 과정에서 취득하는 신호의 강도(Intensity) 정보를 활용하여 이들 객체를 맵 상에 컬러 혹은 무늬, 숫자 등으로 구분하여 표시하여 장애물들을 구분할 수있도록 한다. 장애물 별로 획득된 신호의 강도(Intensity)에 대한 정보를 활용하여 장애물에 대한 대응 동작을 수행할 수 있다. 특히, 본 발명의 실시예를 적용할 경우, 반사 재질에서 획득된 잘못된 거리 정보를 추출하는 것을 방지할 수 있다.
도 17은 본 발명의 일 실시예에 의한 다수의 로봇 사이에, 혹은 로봇과 서버 사이에 객체의 위치 및 특성 정보를 교환하는 과정을 보여주는 도면이다.
서버(2000)는 다수의 로봇들(1000a, ..., 1000z)에게 객체의 위치 및 특성 정보를 다운로드(S1701, S1702) 송신한다. 로봇들(1000a, ..., 1000z)은 수신된 객체의 위치 및 특성 정보를 맵 저장부(200)에 업데이트한다. 서버(2000)는 다수의 로봇들(1000a, ..., 1000z)이 전송한 객체의 위치 및 특성 정보를 분석하여 동일한 위치에서 중복하여 센싱된 정보는 새로이 업데이트 하여 하나의 객체에 대한 위치 및 특성 정보로 저장할 수 있다. 또한, 센싱된 시간 정보(SensingTime)가 도 4에 저장될 수 있으며, 이를 기반으로 특정 위치에서 센싱된 객체가 제거되었는지를 확인할 수 있다. 유리로 가벽을 만드는 경우 가벽이 제거된 후에는 맵 저장부(200)에서도 제거하여 로봇이 이동할 수 있도록 한다. 이후 로봇들(1000a, ..., 1000z)은 주행 과정에서 객체의 위치 및 특성 정보를 업데이트한다(S1710, S1720). 일 실시예로 각 로봇이 보유하는 맵 저장부의 정보를 업데이트하는 것을 포함한다. 또한, 로봇 중에서 인접하여 위치하는 로봇 사이에서는 새로이 습득한 객체의 위치 및 특성 정보를 쉐어링할 수 있다(S1715). 이때 객체의 위치 및 특성 정보의 쉐어링은 일정한 범위 내에 근접해있는 로봇들에게만 한정하여 제공할 수 있다. 또는, 로봇 이후에 해당 공간으로 이동하는 것이 예정된 로봇에게 제공할 수도 있다.
그리고 각각의 로봇들(1000a, ..., 1000z)은 주행 중 취득한 객체의 위치 및 특성 정보를 서버로 업로드(S1711, S1721) 송신한다.
서버(2000)는 수신한 객체의 위치 및 특성 정보를 업데이트 하며(S1730) 이 과정에서 중복된 정보를 하나의 객체에 대한 정보로 정리하거나, 혹은 객체의 특성 정보(정규화된 신호의 강도)가 변동이 발생한 경우 이를 반영하여 새로이 객체의 위치 및 특성 정보를 다운로드한다(S1731, S1732).
본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니며, 본 발명의 목적 범위 내에서 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 반도체 기록소자를 포함하는 저장매체를 포함한다. 또한 본 발명의 실시예를 구현하는 컴퓨터 프로그램은 외부의 장치를 통하여 실시간으로 전송되는 프로그램 모듈을 포함한다.
이상에서는 본 발명의 실시예를 중심으로 설명하였지만, 통상의 기술자의 수준에서 다양한 변경이나 변형을 가할 수 있다. 따라서, 이러한 변경과 변형이 본 발명의 범위를 벗어나지 않는 한 본 발명의 범주 내에 포함되는 것으로 이해할 수 있을 것이다.
1000: 로봇 100: 센싱부
200: 맵저장부 210: 맵
220: 객체특성 저장부 221: 범주 저장부
225: 위치 저장부 300: 이동부
400:기능부 500: 통신부
600: 인터페이스부 2000: 서버

Claims (15)

  1. 로봇의 이동을 제어하는 이동부;
    로봇의 이동 시 참조하는 맵을 저장하는 맵 저장부;
    로봇의 외부에 배치된 하나 이상의 객체를 센싱하는 센싱부; 및
    상기 이동부, 맵 저장부, 센싱부를 제어하며, 상기 센싱된 객체의 위치 정보와 특성 정보를 산출하는 제어부를 포함하며,
    상기 로봇의 제어부는 상기 센싱된 객체의 위치 정보와 특성 정보를 상기 맵 저장부에 저장하는, 객체의 특성이 적용된 맵을 작성하는 로봇.
  2. 제1항에 있어서,
    상기 맵 저장부는
    상기 로봇이 이동하는 공간에 대한 정보를 저장하는 맵; 및
    상기 공간에 배치된 객체의 특성을 저장하는 객체 특성 저장부를 포함하는, 객체의 특성이 적용된 맵을 작성하는 로봇.
  3. 제1항에 있어서,
    상기 센싱부는 라이다 센서이며,
    레이저 송신부, 레이저 수신부 및 센싱데이터 분석부를 포함하며,
    상기 센싱된 객체 특성은
    상기 레이저 송신부가 송신한 신호가 상기 객체에서 반사되어 상기 레이저 수신부에 수신된 신호의 강도(Intensity)를 포함하는, 객체의 특성이 적용된 맵을 작성하는 로봇.
  4. 제3항에 있어서,
    상기 맵 저장부는 상기 객체 및 상기 객체의 상기 신호의 강도가 포함된 범주에 따라 구별하여 상기 객체의 정보를 저장하며,
    상기 로봇은 상기 맵 저장부에 저장된 객체의 정보를 상기 신호의 강도가 포함된 범주에 따라 상이하게 표시하는 인터페이스부를 더 포함하는, 객체의 특성이 적용된 맵을 작성하는 로봇.
  5. 제1항에 있어서,
    상기 제어부는 상기 맵 저장부에 센싱되지 않은 가상의 객체에 대한 정보를 저장하는, 객체의 특성이 적용된 맵을 작성하는 로봇.
  6. 제1항에 있어서,
    미리 설정된 기능을 수행하는 기능부를 더 포함하며,
    상기 기능부 또는 상기 이동부는 상기 로봇의 현재 위치에서 인접하게 배치된 객체의 상기 특성 정보에 대응하여 상이하게 동작하는, 객체의 특성이 적용된 맵을 작성하는 로봇.
  7. 제1항에 있어서,
    상기 맵 저장부는 객체의 특성 정보를 범주화한 범주에 대한 정보를 더 포함하며,
    상기 로봇의 제어부는 상기 맵 저장부에 저장된 객체의 특성 정보에 따라 상기 범주를 재조정하는, 객체의 특성이 적용된 맵을 작성하는 로봇.
  8. 로봇의 센싱부가 센싱 가능 범위 내의 하나 이상의 객체의 위치 정보와 특성 정보를 센싱하는 단계;
    로봇의 제어부가 상기 위치 정보와 특성 정보에서 상기 센싱부의 신호가 투과하는 제1객체 및 상기 센싱부의 신호가 불투과하는 제2객체를 식별하는 단계;
    상기 제어부가 상기 제1객체의 위치 정보 및 특성 정보를 맵 저장부에 저장하는 단계; 및
    상기 제어부가 상기 제2객체의 위치 정보를 상기 맵 저장부에 저장하는 단계를 포함하는, 객체의 특성이 적용된 맵을 작성하는 방법.
  9. 제8항에 있어서,
    상기 센싱부는 라이다 센서이며, 레이저 송신부, 레이저 수신부 및 센싱데이터 분석부를 포함하며,
    상기 센싱하는 단계는
    상기 레이저 송신부가 신호를 송신하는 단계;
    상기 레이저 수신부가 상기 제1객체에서 반사된 신호를 수신하는 단계;
    상기 레이저 수신부가 상기 제1객체 후면에 배치된 제3객체에서 반사된 신호를 수신하는 단계; 및
    상기 로봇의 센싱 데이터 분석부가 상기 반사된 신호의 강도 및 상기 제1객체 또는 상기 제3객체 중 어느 하나 이상의 위치 정보를 상기 제어부에 전달하는 단계를 포함하는, 객체의 특성이 적용된 맵을 작성하는 방법.
  10. 제9항에 있어서,
    상기 센싱된 객체 특성은 상기 제1객체 또는 제3객체에서 반사되어 상기 레이저 수신부에 수신된 신호의 강도(Intensity)를 포함하는, 객체의 특성이 적용된 맵을 작성하는 방법.
  11. 제9항에 있어서,
    상기 제어부가 상기 제1객체의 위치 정보 및 특성 정보를 맵 저장부에 저장하는 단계는
    상기 제어부가 상기 제1객체의 상기 신호의 강도가 포함된 범주에 따라 구별하여 상기 제1객체의 정보를 맵 저장부에 저장하는 단계를 포함하는, 객체의 특성이 적용된 맵을 작성하는 방법.
  12. 제8항에 있어서,
    상기 로봇의 인터페이스부가 상기 맵 저장부에 저장된 제1객체 및 제2객체를 상이하게 표시하는 단계를 더 포함하는, 객체의 특성이 적용된 맵을 작성하는 방법.
  13. 제8항에 있어서,
    상기 제어부는 상기 맵 저장부에 센싱되지 않은 가상의 객체에 대한 정보를 저장하는 단계를 더 포함하는, 객체의 특성이 적용된 맵을 작성하는 방법.
  14. 제8항에 있어서,
    미리 설정된 기능을 수행하는 기능부를 더 포함하며,
    상기 제어부는 현재 위치에서 인접하게 배치된 객체의 상기 특성 정보를 맵 저장부에서 확인하는 단계; 및
    상기 범주에 대응하여 상기 이동부 또는 기능부의 모드를 설정하는 단계를 포함하는, 객체의 특성이 적용된 맵을 작성하는 방법.
  15. 제8항에 있어서,
    상기 맵 저장부는 객체의 특성 정보를 범주화한 범주에 대한 정보를 더 포함하며,
    상기 로봇의 제어부는 상기 맵 저장부에 저장된 객체의 특성 정보에 따라 상기 범주를 재조정하는 단계를 더 포함하는, 객체의 특성이 적용된 맵을 작성하는 방법.

KR1020170022239A 2017-02-20 2017-02-20 객체의 특성이 적용된 맵을 작성하는 방법 및 이를 구현하는 로봇 KR20180096059A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170022239A KR20180096059A (ko) 2017-02-20 2017-02-20 객체의 특성이 적용된 맵을 작성하는 방법 및 이를 구현하는 로봇
US15/893,141 US10871781B2 (en) 2017-02-20 2018-02-09 Method for drawing map having feature of object applied thereto and robot implementing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170022239A KR20180096059A (ko) 2017-02-20 2017-02-20 객체의 특성이 적용된 맵을 작성하는 방법 및 이를 구현하는 로봇

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020190097430A Division KR102054301B1 (ko) 2019-08-09 2019-08-09 객체의 특성이 적용된 맵을 작성하는 방법 및 이를 구현하는 로봇

Publications (1)

Publication Number Publication Date
KR20180096059A true KR20180096059A (ko) 2018-08-29

Family

ID=63167783

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170022239A KR20180096059A (ko) 2017-02-20 2017-02-20 객체의 특성이 적용된 맵을 작성하는 방법 및 이를 구현하는 로봇

Country Status (2)

Country Link
US (1) US10871781B2 (ko)
KR (1) KR20180096059A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210010276A (ko) * 2019-07-17 2021-01-27 주식회사 유진로봇 객체 영상 생성 장치, 방법 및 이를 포함하는 객체 인식 장치

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10310087B2 (en) * 2017-05-31 2019-06-04 Uber Technologies, Inc. Range-view LIDAR-based object detection
US10809361B2 (en) 2017-05-31 2020-10-20 Uatc, Llc Hybrid-view LIDAR-based object detection
CN109445623A (zh) * 2018-09-10 2019-03-08 广东智媒云图科技股份有限公司 一种基于触控屏和机械臂的作画系统和方法
JP7275636B2 (ja) * 2019-02-22 2023-05-18 セイコーエプソン株式会社 無人搬送システム及び無人搬送車の自己位置推定方法
CN114271729B (zh) * 2021-11-24 2023-01-10 北京顺造科技有限公司 透光物体探测方法、清洁机器人装置及地图构建方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031884A (ja) * 2007-07-25 2009-02-12 Toyota Motor Corp 自律移動体、自律移動体におけるマップ情報作成方法および自律移動体における移動経路特定方法
US20120069321A1 (en) * 2010-09-22 2012-03-22 Quilligan Gerard T Imaging device and circuit for same
US8386078B1 (en) * 2011-05-06 2013-02-26 Google Inc. Methods and systems for providing a data library for robotic devices
US8811748B2 (en) * 2011-05-20 2014-08-19 Autodesk, Inc. Collaborative feature extraction system for three dimensional datasets
KR101985188B1 (ko) 2012-09-20 2019-06-04 엘지전자 주식회사 이동 로봇 및 이동 로봇의 주행방법
CN104029207B (zh) * 2013-03-08 2017-05-10 科沃斯机器人股份有限公司 自移动机器人激光引导行走作业系统及其控制方法
US9141107B2 (en) * 2013-04-10 2015-09-22 Google Inc. Mapping active and inactive construction zones for autonomous driving
US9868211B2 (en) 2015-04-09 2018-01-16 Irobot Corporation Restricting movement of a mobile robot
US10629072B2 (en) * 2016-10-20 2020-04-21 Ford Global Technologies, Llc LIDAR and vision vehicle sensing

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210010276A (ko) * 2019-07-17 2021-01-27 주식회사 유진로봇 객체 영상 생성 장치, 방법 및 이를 포함하는 객체 인식 장치

Also Published As

Publication number Publication date
US10871781B2 (en) 2020-12-22
US20180239357A1 (en) 2018-08-23

Similar Documents

Publication Publication Date Title
KR20180096059A (ko) 객체의 특성이 적용된 맵을 작성하는 방법 및 이를 구현하는 로봇
KR102054301B1 (ko) 객체의 특성이 적용된 맵을 작성하는 방법 및 이를 구현하는 로봇
KR102012550B1 (ko) 돌발 장애물을 식별하는 방법 및 이를 구현하는 로봇
TWI509274B (zh) 被動紅外測距接近偵測器
CN100437025C (zh) 接近检测器
CN104052950A (zh) 操作检测装置和操作检测方法
CN107111442A (zh) 使用光学触敏设备的器械检测
CN109747643A (zh) 一种智能车辆感知系统的信息融合方法
CN101663637A (zh) 利用悬浮和点击输入法的触摸屏系统
JP5741088B2 (ja) 位置検出システム及び投射型表示システム
US9562922B2 (en) Light sensor and electronic device
CN106956267A (zh) 机器人手臂避障方法和系统
CN112611730A (zh) 一种无人机气体检测方法、系统及存储介质
JPH10112000A (ja) 障害物認識装置
KR102608471B1 (ko) 눈 추적 방법 및 장치
CN107782354B (zh) 动作传感器检测系统以及方法
WO2017045452A1 (zh) 一种位置确定方法、装置、系统及处理中心
KR102329674B1 (ko) 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법 및 이를 구현하는 로봇
CN113631955A (zh) 用于存在感测系统的视觉指示器
EP3312626B1 (en) Auxiliary apparatus for lighthouse positioning system
JP6475055B2 (ja) 検出装置、検出方法、及び、プログラム
CN105912172A (zh) 一种激光扫描多点触控装置
CN112904437B (zh) 基于隐私保护的隐藏组件的检测方法及隐藏组件检测装置
CN107209606A (zh) 使用经数字编码光的触摸屏面板
KR101609263B1 (ko) 적외선을 이용하여 제스쳐를 인식하기 위한 장치 및 그 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
E601 Decision to refuse application
E801 Decision on dismissal of amendment