KR102054301B1 - Method of drawing map applied by object feature and robot implementing thereof - Google Patents

Method of drawing map applied by object feature and robot implementing thereof Download PDF

Info

Publication number
KR102054301B1
KR102054301B1 KR1020190097430A KR20190097430A KR102054301B1 KR 102054301 B1 KR102054301 B1 KR 102054301B1 KR 1020190097430 A KR1020190097430 A KR 1020190097430A KR 20190097430 A KR20190097430 A KR 20190097430A KR 102054301 B1 KR102054301 B1 KR 102054301B1
Authority
KR
South Korea
Prior art keywords
information
category
map
robot
signal
Prior art date
Application number
KR1020190097430A
Other languages
Korean (ko)
Other versions
KR20190096897A (en
Inventor
김동훈
손병곤
송현섭
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020190097430A priority Critical patent/KR102054301B1/en
Publication of KR20190096897A publication Critical patent/KR20190096897A/en
Application granted granted Critical
Publication of KR102054301B1 publication Critical patent/KR102054301B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic

Abstract

본 발명은 객체의 특성이 적용된 맵을 작성하는 방법 및 이를 구현하는 로봇에 관한 기술로 본 발명의 일 실시예에 의한 객체의 특성이 적용된 맵을 작성하는 로봇은 로봇의 이동을 제어하는 이동부, 로봇의 이동 시 참조하는 맵을 저장하는 맵 저장부, 로봇의 외부에 배치된 하나 이상의 객체를 센싱하는 센싱부, 및 이동부, 맵 저장부, 센싱부를 제어하며, 센싱된 객체의 위치 정보와 특성 정보를 산출하는 제어부를 포함하며, 로봇의 제어부는 센싱된 객체의 위치 정보와 특성 정보를 맵 저장부에 저장한다.The present invention relates to a method for creating a map to which the characteristics of an object are applied and a robot implementing the same. The robot for creating a map to which the characteristics of an object are applied according to an embodiment of the present invention includes a moving unit that controls the movement of the robot; A map storage unit that stores a map referred to when the robot moves, a sensing unit that senses one or more objects disposed outside the robot, and controls the moving unit, the map storage unit, and the sensing unit, and the position information and characteristics of the sensed object. And a controller for calculating information, wherein the controller stores the position information and the characteristic information of the sensed object in the map storage unit.

Description

객체의 특성이 적용된 맵을 작성하는 방법 및 이를 구현하는 로봇{METHOD OF DRAWING MAP APPLIED BY OBJECT FEATURE AND ROBOT IMPLEMENTING THEREOF}METHOOD OF DRAWING MAP APPLIED BY OBJECT FEATURE AND ROBOT IMPLEMENTING THEREOF}

본 발명은 객체의 특성이 적용된 맵을 작성하는 방법 및 이를 구현하는 로봇에 관한 기술이다.The present invention relates to a method of creating a map to which a property of an object is applied, and a technology related to a robot implementing the same.

공항, 학교, 관공서, 호텔, 사무실, 공장 등 인적, 물적 교류가 활발하게 발생하는 공간에서 로봇이 동작하기 위해서는 전체 공간에 대한 맵을 가져야 한다. 특히, 다양한 재질로 구성된 구조물들을 센싱하여 이들이 고정된 구조물인지 아니면 이동하는 구조물인지를 판별하고, 고정된 구조물을 기반으로 맵을 작성하는 것이 필요하다. 특히, 공항이나 항만, 기차역과 같이 다수의 사람들이 이동하는 공간에서는 콘트리트 외에도 유리를 이용하여 벽을 구성하는 경우가 빈번하며, 맵을 구성하기 위해 주변을 센싱하는 과정에서 유리가 센싱되지 않거나 혹은 유리 뒤쪽의 콘크리트가 센싱되는 경우가 발생할 수 있다. 이에, 이러한 문제점을 해결하기 위해, 본 명세서에서는 로봇이 맵을 생성하거나 업데이트 하는 과정에서 고정된 구조물의 재질을 센싱하고 이를 분석하여 맵을 생성 및 업데이트하는 방안을 제시하고자 한다. In order to operate a robot in a space where human and material exchanges are actively occurring, such as an airport, a school, a public office, a hotel, an office, a factory, a map of the entire space must be provided. In particular, it is necessary to sense structures made of various materials to determine whether they are fixed structures or moving structures, and to create a map based on the fixed structures. In particular, in a space where many people move, such as airports, harbors, and train stations, glass is often used to construct walls in addition to concrete, and glass is not sensed in the process of sensing the surroundings to construct a map. The concrete behind may be sensed. In order to solve this problem, the present specification proposes a method of generating and updating a map by sensing a material of a fixed structure and analyzing the material in the process of creating or updating a map.

본 명세서에서는 전술한 문제점을 해결하기 위한 것으로, 다양한 재질의 객체들이 배치된 공간에서 각 객체의 특성을 센싱하여 이를 토대로 맵을 구성하고 로봇이 맵을 이용하여 이동할 수 있도록 한다. In this specification, in order to solve the above-described problems, the characteristics of each object in the space in which the objects of various materials are arranged to construct a map based on this and to allow the robot to move using the map.

본 명세서에서는 장애물의 재질에 따라 잘못된 값이 획득되거나 획득이 되어지지 않는 경우를 방지하여 인해 정확한 맵 정보를 생성하도록 한다.In this specification, accurate map information is generated due to preventing a case where an incorrect value is obtained or not obtained according to the material of an obstacle.

본 명세서에서는 장애물의 재질에 따라 맵 상에 달리 표시하도록 하여 로봇의 이동을 설계하는 과정에서 객체들의 특성을 반영할 수 있도록 한다. In this specification, it is displayed differently on the map according to the material of the obstacle so that the characteristics of the objects can be reflected in the process of designing the movement of the robot.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention which are not mentioned above can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. Also, it will be readily appreciated that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.

본 발명의 일 실시예에 의한 객체의 특성이 적용된 맵을 작성하는 로봇은 로봇의 이동을 제어하는 이동부, 로봇의 이동 시 참조하는 맵을 저장하는 맵 저장부, 로봇의 외부에 배치된 하나 이상의 객체를 센싱하는 센싱부, 및 이동부, 맵 저장부, 센싱부를 제어하며, 센싱된 객체의 위치 정보와 특성 정보를 산출하는 제어부를 포함하며, 로봇의 제어부는 센싱된 객체의 위치 정보와 특성 정보를 맵 저장부에 저장한다. According to an embodiment of the present invention, a robot for creating a map to which an object characteristic is applied may include a moving unit for controlling a movement of a robot, a map storage unit for storing a map referenced when the robot moves, and at least one outside of the robot. And a control unit for sensing an object, a moving unit, a map storage unit, and a sensing unit to calculate the position information and the characteristic information of the sensed object, wherein the controller of the robot includes the position information and the characteristic information of the sensed object. Is stored in the map storage.

본 발명의 다른 실시예에 의한 객체의 특성이 적용된 맵을 작성하는 방법은 로봇의 센싱부가 센싱 가능 범위 내의 하나 이상의 객체의 위치 정보와 특성 정보를 센싱하는 단계, 로봇의 제어부가 위치 정보와 특성 정보에서 센싱부의 신호가 투과하는 제1객체 및 센싱부의 신호가 불투과하는 제2객체를 식별하는 단계, 제어부가 제1객체의 위치 정보 및 특성 정보를 맵 저장부에 저장하는 단계, 및 제어부가 제2객체의 위치 정보를 맵 저장부에 저장하는 단계를 포함한다. According to another aspect of the present invention, there is provided a method of creating a map to which a property of an object is applied. Identifying a first object through which the signal of the sensing unit passes and a second object through which the signal of the sensing unit is not transmitted; storing, by the controller, position information and characteristic information of the first object in the map storage unit; and And storing the location information of the two objects in the map storage unit.

본 발명의 실시예들을 적용할 경우, 센서를 이용하여 맵울 작성하거나 수정하는 과정에서 장애물이 가지는 재질상의 특성을 반영하여 정확한 맵을 작성할 수 있다.When applying the embodiments of the present invention, it is possible to create an accurate map by reflecting the material characteristics of the obstacle in the process of creating or modifying the map using the sensor.

또한, 본 발명의 실시예들을 적용할 경우, 장애물의 재질에 따라 정확하게 객체의 정보를 센싱할 수 있으며, 또한 맵 상에 서로 상이한 재질의 장애물들에 대한 정보를 구분하여 저장 및 표시할 수 있다. In addition, when applying the embodiments of the present invention, it is possible to accurately sense the information of the object according to the material of the obstacle, it is also possible to distinguish and store the information about the obstacles of different materials on the map.

또한 본 발명의 실시예들을 적용할 경우, 로봇은 근접한 객체들의 특성에 따라 달리 동작할 수 있다. In addition, when applying the embodiments of the present invention, the robot may operate differently depending on the characteristics of the adjacent objects.

본 발명의 효과는 전술한 효과에 한정되지 않으며, 본 발명의 당업자들은 본 발명의 구성에서 본 발명의 다양한 효과를 쉽게 도출할 수 있다. The effects of the present invention are not limited to the above effects, and those skilled in the art can easily derive various effects of the present invention from the configuration of the present invention.

도 1은 본 발명의 일 실시예에 의한 라이다(LiDAR) 센서의 구성을 보여주는 도면이다.
도 2는 본 발명의 일 실시예에 의한 로봇의 구성을 보여주는 도면이다.
도 3은 본 발명의 일 실시예에 의한 맵 저장부에 저장되는 맵의 구성을 보여주는 도면이다.
도 4는 객체 특성 저장부(220)에 저장되는 객체의 특성을 보여주는 도면이다.
도 5는 본 발명의 일 실시예에 의한 로봇이 벽과 유리가 배치된 공간에서 신호의 강도를 이용하여 구별하는 과정을 보여주는 도면이다.
도 6은 본 발명의 일 실시예에 의한 도 5에서 센싱된 객체들을 맵 저장부(200)에 저장한 도면이다.
도 7은 본 발명의 다른 실시예에 의한 로봇이 유리 뒷편에 배치되는 사물들과 유리를 구별하는 과정을 보여주는 도면이다.
도 8은 본 발명의 또다른 실시예에 의한 로봇이 유리가 없는 열린 공간 상에서 다양하게 배치된 사물들을 구별하는 과정을 보여주는 도면이다.
도 9는 본 발명의 일 실시예에 의한 가상의 경계선을 맵 저장부에 저장한 도면이다.
도 10은 본 발명의 일 실시예에 의한 로봇의 센싱부(100)가 유리벽을 감지하는 경우의 신호 강도의 변화를 보여주는 도면이다.
도 11 및 도 12는 본 발명의 다른 실시예에 의한 로봇의 센싱부(100)가 신호의 강도와 거리를 함께 센싱한 결과를 보여주는 도면이다.
도 13은 본 발명의 일 실시예에 의한 로봇이 객체의 특성이 적용된 맵을 작성하는 과정을 보여주는 과정을 보여주는 도면이다.
도 14는 본 발명의 일 실시예에 의한 라이다 센서가 객체의 반사 신호를 수신하는 과정을 보여주는 도면이다.
도 15는 본 발명의 일 실시예에 의한 제어부가 센싱된 외부의 객체의 정보를 맵 저장부에 저장하는 과정에 관한 도면이다.
도 16은 본 발명의 일 실시예에 의한 로봇이 주변의 객체의 특성 정보에 대응하여 상이하게 동작하는 과정을 보여주는 도면이다.
도 17은 본 발명의 일 실시예에 의한 다수의 로봇 사이에, 혹은 로봇과 서버 사이에 객체의 위치 및 특성 정보를 교환하는 과정을 보여주는 도면이다.
1 is a view showing the configuration of a LiDAR sensor according to an embodiment of the present invention.
2 is a view showing the configuration of a robot according to an embodiment of the present invention.
3 is a diagram illustrating a configuration of a map stored in a map storage unit according to an exemplary embodiment of the present invention.
4 is a diagram illustrating a characteristic of an object stored in the object characteristic storage 220.
FIG. 5 is a diagram illustrating a process of distinguishing a robot using signal strength in a space where walls and glass are disposed according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating objects stored in FIG. 5 in the map storage unit 200 according to an exemplary embodiment.
FIG. 7 is a view illustrating a process of distinguishing the glass from the objects disposed behind the glass by the robot according to another embodiment of the present invention.
FIG. 8 is a diagram illustrating a process of distinguishing objects variously arranged in an open space without glass by a robot according to another embodiment of the present invention.
9 is a diagram illustrating a virtual boundary line stored in a map storage unit according to an embodiment of the present invention.
10 is a view showing a change in signal strength when the sensing unit 100 of the robot according to an embodiment of the present invention detects the glass wall.
11 and 12 illustrate a result of sensing the signal strength and distance by the sensing unit 100 of the robot according to another embodiment of the present invention.
FIG. 13 is a diagram illustrating a process of creating a map to which a characteristic of an object is applied by a robot according to an embodiment of the present invention.
14 is a diagram illustrating a process of receiving a reflection signal of an object by a lidar sensor according to an embodiment of the present invention.
FIG. 15 is a diagram for a process of storing, by a controller, information of an external object sensed according to an embodiment of the present invention in a map storage unit.
FIG. 16 is a diagram illustrating a process in which a robot operates differently in response to characteristic information of surrounding objects according to an embodiment of the present invention.
FIG. 17 is a view illustrating a process of exchanging position and characteristic information of an object between a plurality of robots or between a robot and a server according to an embodiment of the present invention.

이하, 도면을 참조하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention.

본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다. 또한, 본 발명의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다.In order to clearly describe the present invention, parts irrelevant to the description are omitted, and like reference numerals designate like elements throughout the specification. In addition, some embodiments of the invention will be described in detail with reference to exemplary drawings. In adding reference numerals to components of each drawing, the same components may have the same reference numerals as much as possible even though they are shown in different drawings. In addition, in describing the present invention, when it is determined that the detailed description of the related well-known configuration or function may obscure the gist of the present invention, the detailed description may be omitted.

본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 다른 구성 요소가 "개재"되거나, 각 구성 요소가 다른 구성 요소를 통해 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In describing the components of the present invention, terms such as first, second, A, B, (a), and (b) can be used. These terms are only to distinguish the components from other components, and the terms are not limited in nature, order, order or number of the components. When a component is described as being "connected", "coupled" or "connected" to another component, that component may be directly connected to or connected to that other component, but between components It will be understood that the elements may be "interposed" or each component may be "connected", "coupled" or "connected" through other components.

또한, 본 발명을 구현함에 있어서 설명의 편의를 위하여 구성요소를 세분화하여 설명할 수 있으나, 이들 구성요소가 하나의 장치 또는 모듈 내에 구현될 수도 있고, 혹은 하나의 구성요소가 다수의 장치 또는 모듈들에 나뉘어져서 구현될 수도 있다.In addition, in the implementation of the present invention may be described by subdividing the components for convenience of description, these components may be implemented in one device or module, or one component is a plurality of devices or modules It can also be implemented separately.

이하, 본 명세서에서 로봇은 특정한 목적(청소, 보안, 모니터링, 안내 등)을 가지거나 혹은 로봇이 이동하는 공간의 특성에 따른 기능을 제공하며 이동하는 장치를 포함한다. 따라서, 본 명세서에서의 로봇은 소정의 정보와 센서를 이용하여 이동할 수 있는 이동수단을 보유하며 소정의 기능을 제공하는 장치를 통칭한다. Hereinafter, in the present specification, the robot includes a device having a specific purpose (cleaning, security, monitoring, guidance, etc.) or providing a function according to the characteristics of the space in which the robot moves. Therefore, the robot in the present specification collectively refers to a device that holds a moving means that can move using predetermined information and a sensor and provides a predetermined function.

본 명세서에서 로봇은 맵을 보유하면서 이동할 수 있다. 맵은 공간에서 이동하지 않는 고정된 벽, 계단, 유리벽 등에 대한 정보를 의미한다. 또한, 로봇은 맵 위에 특정한 객체들에 대한 정보를 저장할 수 있다. 예를 들어, 객체가 유리와 같이 특정한 신호를 투과시키는 재질인 경우, 이를 벽과 구분하여 저장할 수 있다. 마찬가지로, 거울과 같이 반사 신호를 왜곡시키는 재질에 대해서도 정보를 저장할 수 있다. 빈 공간에 확장되어 배치되는 유리벽은 센싱 신호를 투과시켜 로봇이 거리를 정확하게 측정하지 못할 수 있으므로, 로봇이 이동하는 공간 내에서 벽과 유리 등 재질이 상이한 객체들의 정보를 구분하여 저장하고 이를 표시하거나 이용하는 것이 필요하다. 도 1은 본 발명의 일 실시예에 의한 라이다(LiDAR) 센서의 구성을 보여주는 도면이다. 본 발명의 일 실시예에 로봇은 라이다(Lidar) 센서를 이용하여 맵을 보완하거나 혹은 고정된 구조물의 재질 등을 식별할 수 있다. 라이다 센서는 외부의 장애물 혹은 이동체를 향해 출사시킨 레이저의 반사를 통해 사물까지의 위치(거리)나 방향, 사물의 속도나 온도, 혹은 물질 분포와 농도, 재질 등을 확인할 수 있다. 이를 위해 라이다 센서를 포함하는 센싱부(100)는 레이저를 출사시키는 레이저 송신부(110)와 레이저 수신부(120)로 구성될 수 있으며, 이에 더하여 수신된 신호를 분석하는 센싱 데이터 분석부(130)로 구성될 수 있다. 레이저 송신부(110)는 특정한 파장의 레이저 혹은 파장을 가변하는 것이 가능한 레이저 광원을 이용할 수 있다. 센싱 데이터 분석부(130)는 센싱된 객체와의 거리, 혹은 센싱된 객체의 온도나 속도, 재질과 같은 정보를 분석하여 센싱부(100)가 장착된 로봇에게 제공할 수 있다.In the present specification, the robot may move while holding a map. The map refers to information about fixed walls, stairs, and glass walls that do not move in space. The robot can also store information about specific objects on the map. For example, if the object is a material that transmits a specific signal, such as glass, it can be stored separately from the wall. Similarly, information may be stored about a material that distorts a reflected signal, such as a mirror. Since the glass wall extended in the empty space transmits a sensing signal, the robot may not be able to accurately measure the distance. Therefore, information about objects having different materials such as walls and glass may be classified and stored and displayed in the moving space of the robot. Or need to use. 1 is a view showing the configuration of a LiDAR sensor according to an embodiment of the present invention. According to an embodiment of the present invention, the robot may use a Lidar sensor to complement the map or identify a material of a fixed structure. The lidar sensor can check the position (distance) or direction to the object, the speed or temperature of the object, the material distribution and concentration, and the material through the reflection of the laser emitted toward an external obstacle or moving object. To this end, the sensing unit 100 including the lidar sensor may be configured as a laser transmitter 110 and a laser receiver 120 for emitting a laser. In addition, the sensing data analyzer 130 may analyze the received signal. It can be configured as. The laser transmitter 110 may use a laser of a specific wavelength or a laser light source capable of varying the wavelength. The sensing data analysis unit 130 may analyze information such as a distance from the sensed object, temperature, speed, or material of the sensed object and provide the same to the robot equipped with the sensing unit 100.

도 1에서 레이저 송신부(110) 및 레이저 수신부(120)를 통합하여 라이다 센서라고 지시할 수 있다. 다른 실시예로 라이다 센서는 센싱 데이터 분석부(130)와 레이저 송신부(110), 레이저 수신부(120)를 모두 포함할 수도 있다. In FIG. 1, the laser transmitter 110 and the laser receiver 120 may be integrated to indicate a lidar sensor. In another embodiment, the lidar sensor may include both the sensing data analyzer 130, the laser transmitter 110, and the laser receiver 120.

도 1은 센싱부의 일 실시예로 레이저를 이용하는 라이다 센서의 구성을 제시하고 있으나, 본 발명이 이에 한정되는 것은 아니며, 초음파 센서, 적외선 센서 등 다양한 센서를 이용하여 외부의 객체들에 대한 재질 혹은 이들 외부의 객체들로부터 반사된 신호의 강도(Intensity)를 확인할 수 있다. 또한 둘 이상의 센서들을 이용하고, 각 센서들이 식별한 정보의 특징을 반영하여 외부의 객체들에 대한 재질 혹은 이들 외부의 객체들로부터 반사된 신호의 강도를 확인할 수 있다.1 illustrates a configuration of a lidar sensor using a laser as an embodiment of the sensing unit, but the present invention is not limited thereto, and materials or materials for external objects using various sensors such as an ultrasonic sensor and an infrared sensor may be used. The intensity of the signal reflected from these external objects can be checked. In addition, two or more sensors may be used to reflect the characteristics of the information identified by each sensor, thereby identifying the material of the external objects or the strength of the signal reflected from the external objects.

도 2는 본 발명의 일 실시예에 의한 로봇의 구성을 보여주는 도면이다. 로봇(1000)은 외부의 이동 객체 혹은 고정 객체를 센싱하는 센싱부(100), 맵을 저장하는 맵 저장부(200), 이동을 제어하는 이동부(300), 로봇의 소정의 기능을 수행하는 기능부(400), 다른 로봇과 맵 또는 이동 객체, 고정 객체에 관한 정보를 송수신하는 통신부(500), 로봇(1000)이 취득한 정보를 표시하는 인터페이스부(600), 그리고 이들 각각의 구성요소들을 제어하는 제어부(900)를 포함한다.2 is a view showing the configuration of a robot according to an embodiment of the present invention. The robot 1000 performs a predetermined function of the sensing unit 100 for sensing an external moving object or a fixed object, a map storage unit 200 for storing a map, a moving unit 300 for controlling movement, and a robot. The functional unit 400, the communication unit 500 for transmitting and receiving information about the map or moving object and the fixed object with other robots, the interface unit 600 for displaying the information obtained by the robot 1000, and their respective components It includes a control unit 900 for controlling.

제어부(900)는 센싱부(100)가 센싱한 정보들을 취합하여 센싱된 객체의 재질 또는 센싱된 객체의 특성을 분석하여 이를 맵 저장부(200)에 저장할 수 있다. 이동부(300)는 바퀴와 같이 로봇(1000)을 이동시키는 수단으로, 제어부(900)의 제어에 따라 로봇(1000)을 이동시킨다. 이때, 제어부(900)는 맵 저장부(200)에 저장된 영역에서 로봇(1000)의 현재 위치를 확인하여 이동부(300)에 이동에 필요한 제어 신호를 제공할 수 있다. The controller 900 may collect information sensed by the sensing unit 100, analyze the material of the sensed object or the characteristics of the sensed object, and store the information in the map storage unit 200. The moving unit 300 is a means for moving the robot 1000 like a wheel, and moves the robot 1000 under the control of the controller 900. In this case, the controller 900 may check the current position of the robot 1000 in an area stored in the map storage unit 200 and provide a control signal for movement to the moving unit 300.

또한, 센싱부(100)에서 센싱된 외부의 객체의 존재 유무를 제어부(900)가 판별하여 이동부(300)의 이동을 제어할 수 있다. 기능부(400)는 로봇의 특화된 기능을 제공하는 것을 의미한다. 예를 들어, 청소 로봇인 경우 기능부(400)는 청소에 필요한 구성요소를 포함한다. 안내 로봇인 경우 기능부(400)는 안내에 필요한 구성요소를 포함한다. 기능부(400)는 로봇이 제공하는 기능에 따라 다양한 구성요소를 포함할 수 있다. In addition, the controller 900 determines whether the external object sensed by the sensing unit 100 may control the movement of the moving unit 300. The functional unit 400 is meant to provide specialized functions of the robot. For example, in the case of a cleaning robot, the function unit 400 includes components necessary for cleaning. In the case of a guide robot, the function unit 400 includes components required for guidance. The function unit 400 may include various components according to functions provided by the robot.

맵 저장부(200)는 맵(210)을 포함한다. 맵은 로봇(1000)이 이동할 수 있는 공간에 대한 정보를 의미한다. 맵은 전체 공간을 세분화된 단위 영역으로 나누어 단위 영역에 고정 객체가 배치된 정보를 저장한다. 맵(210)은 로봇(1000)이 이동하면서 로봇(1000)의 위치에서 주변에 배치된 객체를 확인하는데 사용될 수 있다. 또한 맵(210)은 로봇(1000)을 관리하는 사람에게 공간에 대한 정보를 제공할 수 있다. 따라서, 도 3의 맵(210)은 로봇(1000)이 이동하는 과정에서 참조하는 메모리 상의 정보가 될 수도 있고, 특정한 디스플레이를 통해 시각적으로 표시되는 정보가 될 수도 있다. The map storage unit 200 includes a map 210. The map means information about a space in which the robot 1000 can move. The map divides the entire space into subdivided unit areas and stores information in which fixed objects are arranged in the unit areas. The map 210 may be used to identify an object disposed around the robot 1000 at the position of the robot 1000 as the robot 1000 moves. In addition, the map 210 may provide information about a space to a person who manages the robot 1000. Accordingly, the map 210 of FIG. 3 may be information on a memory referred to by the robot 1000 in the process of moving, or may be information visually displayed through a specific display.

또한, 맵 저장부(200)는 객체특성 저장부(220)를 포함한다. 객체특성 저장부(220)는 센싱부(100)에서 출사한 신호가 수신되는 과정에서 취득한 외부 객체의 특성 정보를 저장한다. 예를 들어, 수신된 신호를 통해 확인한 외부 객체의 재질과 같은 특성 정보가 객체특성 저장부(220)에 저장될 수 있다. 특성 정보의 일 실시예로, 도 1의 레이저 송신부(110)가 송신한 신호가 레이저 수신부(120)에서 수신된 신호의 특성을 포함한다. In addition, the map storage unit 200 includes an object characteristic storage unit 220. The object characteristic storage unit 220 stores the characteristic information of the external object acquired in the process of receiving the signal emitted from the sensing unit 100. For example, the property information such as the material of the external object checked through the received signal may be stored in the object property storage unit 220. In one embodiment of the characteristic information, the signal transmitted by the laser transmitter 110 of FIG. 1 includes the characteristics of the signal received by the laser receiver 120.

따라서, 맵 저장부(200)는 객체의 특성 정보를 범주화한 범주에 대한 정보를 저장하고, 이는 후술할 도 15와 같이 제어부(900)에 의해 범주가 재조정될 수 있다. 범주의 재조정은 전체 공간의 객체들을 범주에 따라 구분하여 표시하는 과정에서 보다 정확하게 공간의 객체들의 특성을 반영시키기 위함이다. 또한, 범주에 대한 정보는 로봇이 특정한 범주에 속하는 객체들에 근접하여 이동할 경우 동작 모드를 변경할 수 있도록 하므로, 공간 내에 배치되는 객체들의 특성을 반영하여 범주를 재조정할 수 있다. Accordingly, the map storage unit 200 stores information on a category in which the characteristic information of the object is categorized, which may be readjusted by the controller 900 as shown in FIG. 15 to be described later. The rearrangement of categories is intended to reflect the characteristics of objects in space more accurately in the process of classifying objects in the whole space according to categories. In addition, the information on the category allows the robot to change the operation mode when the robot moves in proximity to objects belonging to a specific category, so that the category can be readjusted to reflect the characteristics of the objects arranged in the space.

라이다 센서를 적용하는 실시예에서 수신된 신호의 반사 강도(intensity) 정보가 반사된 물질의 재질에 따라 달라질 수 있다. 레이저를 전부 반사할 경우 강도는 세어지고, 레이저를 일부 흡수하거나 투과시킬 경우 강도는 약해질 수 있다. 따라서, 동일한 위치에 배치된 사물이라도, 사물의 재질에 따라 상이한 강도로 레이저 신호가 수신되며, 이를 이용하여 객체의 특성 정보로 저장할 수 있다. In an embodiment in which a lidar sensor is applied, the reflection intensity information of the received signal may vary depending on the material of the reflected material. The intensity is increased when all the lasers are reflected, and the intensity may be weakened when the laser is partially absorbed or transmitted. Therefore, even if the objects are arranged in the same position, the laser signal is received at a different intensity according to the material of the object, it can be stored as the characteristic information of the object.

본 발명의 실시예를 적용하여 라이다 센서의 경우 레이저를 이용하여 전/후방에 있는 객체, 즉 장애물에 대한 정보를 맵핑하며, 이들 장애물의 재질(유리, 콘크리트 벽 등)에 따라 서로 다른 레이저 신호의 반사 강도(Intensity) 정보를 획득할 수 있다. 본 명세서에서는 센싱된 거리 정보만을 이용하여 맵핑하지 않고, 센싱된 거리 정보에 더하여 서로 다른 강도에 대한 모든 거리 값을 이용하여 맵핑을 수행하여, 더 많은 외부의 객체들에 대한 정보를 획득할 수 있다. According to an embodiment of the present invention, a lidar sensor uses a laser to map information about an object in front and rear, that is, obstacles, and different laser signals according to materials of the obstacles (glass, concrete wall, etc.). Intensity information can be obtained. In the present specification, instead of using only the sensed distance information, mapping may be performed using all distance values for different intensities in addition to the sensed distance information, thereby obtaining information on more external objects. .

특히, 맵 상에서 신호의 강도(Intensity) 구간 별로 장애물, 즉 객체에 대해 상이한 식별 기호(컬러, 숫자 등)를 부여하여 장애물의 재질에 따른 구분 및 불필요한 장애물을 제거하기 위한 참조 맵으로 사용할 수 있다. In particular, different identification symbols (colors, numbers, etc.) are assigned to obstacles, that is, objects, for each intensity section of the signal on the map, and thus may be used as reference maps for removing classification and unnecessary obstacles according to the material of the obstacle.

이동부(300) 또는 기능부(400)는 로봇의 현재 위치에서 인접하게 배치된 객체의 특성 정보에 대응하여 상이하게 동작할 수 있다. The moving unit 300 or the function unit 400 may operate differently in response to the characteristic information of an object disposed adjacent to the current position of the robot.

이동부(300)는 로봇(1000)을 이동시킨다. 이동부(300)는 제어부(900)의 제어에 따라 이동할 수 있는데, 특히, 로봇(1000)의 현재 위치에서 주변에 배치된 객체들의 특징에 따라 상이한 방식으로 이동할 수 있다. 예를 들어, 후술할 도 3의 실시예에서 범주 9에 해당하는 객체(예를 들어 벽)에 접근하도록 이동하는 경우에는 속도를 높이고, 범주 3에 해당하는 객체(예를 들어 유리)에 접근하도록 이동하는 경우에는 속도를 낮출 수 있다. The moving unit 300 moves the robot 1000. The moving unit 300 may move under the control of the control unit 900. In particular, the moving unit 300 may move in a different manner according to the characteristics of objects arranged around the robot 1000 at the current position. For example, in the embodiment of FIG. 3 to be described later, when moving to access an object (eg, a wall) corresponding to category 9, the speed is increased, and an object (eg, a glass) corresponding to category 3 is accessed. If you move, you can slow down.

기능부(400)는 특정한 동작, 예를 들어 청소, 보안 등의 기능, 안내 기능 등을 수행한다. 기능부(400)는 로봇(1000)의 현재 위치에서 주변에 배치된 객체들의 특징에 따라 상이한 동작을 수행할 수 있다. 예를 들어, 후술할 도 3의 실시예에서 범주 9에 해당하는 객체(예를 들어 벽)에 인접하여 수행하는 기능과, 범주 3에 해당하는 객체(예를 들어 유리)에 인접하여 수행하는 기능을 달리 할 수 있다. The function unit 400 performs a specific operation, for example, a function such as cleaning and security, a guide function, and the like. The function unit 400 may perform different operations according to the features of the objects arranged around the robot 1000 at the current position. For example, in the embodiment of FIG. 3 to be described later, a function performed adjacent to an object (for example, a wall) corresponding to category 9 and a function performed adjacent to an object (for example, glass) corresponding to category 3 Can be different.

정리하면, 이동부(300) 및 기능부(400)는 진행 방향 또는 인접하게 배치된 객체의 특성 정보에 따라 상이하게 동작할 수 있다. In summary, the moving unit 300 and the function unit 400 may operate differently according to the moving direction or the characteristic information of the objects arranged adjacent to each other.

도 3은 본 발명의 일 실시예에 의한 맵 저장부에 저장되는 맵의 구성을 보여주는 도면이다. 도 1 및 도 2에서 살펴본 센싱부(100)가 로봇(1000)이 이동하며 센싱한 공간 정보를 저장한다. 3 is a diagram illustrating a configuration of a map stored in a map storage unit according to an exemplary embodiment of the present invention. The sensing unit 100 described with reference to FIGS. 1 and 2 stores spatial information sensed by the robot 1000.

도 3의 맵(210a)은 일종의 비트맵과 같이 구성할 수 있다. 이미지 파일의 비트맵에서 각 비트가 하나의 단위 영역을 나타내도록 구성할 수 있다. 각 단위 영역은 좌측 하단을 (0, 0)으로, 우측 상단을 (19, 19)로 지시할 수 있다. 또한, 도 3의 210a은 20x20 구조의 데이터 구조를 가질 수 있다. 예를 들어, 각 위치에 대해 객체가 배치되는지 여부에 대한 정보를 포함할 수 있다. 일종의 행렬과 같이 정보를 배치하고, 고정 객체가 배치되는 경우에는 해당 행렬의 값을 미리 설정된 값으로 설정할 수 있다.The map 210a of FIG. 3 may be configured as a kind of bitmap. Each bit in the bitmap of the image file can be configured to represent one unit area. Each unit region may indicate a lower left corner as (0, 0) and an upper right corner as (19, 19). In addition, 210a of FIG. 3 may have a data structure of 20x20 structure. For example, it may include information on whether an object is disposed for each location. Information is arranged like a matrix, and when a fixed object is arranged, the value of the matrix can be set to a preset value.

또한, 맵 저장부(200)는 고정 객체들로 구성된 맵(210) 외에도 객체들에 대한 특성 정보를 저장할 수 있는데, 객체에 대한 특성 정보는 객체 특성 저장부(220)에 저장된다. 그리고 이들 정보 역시 맵(210) 상에 표시될 수 있다. In addition, the map storage unit 200 may store property information about objects in addition to the map 210 composed of fixed objects, and the property information about the object is stored in the object property storage unit 220. And this information can also be displayed on the map 210.

도 3의 맵(210a)에서 검은 색으로 표시된 부분(211)은 콘트리트와 같이 빛이 전혀 투과하지 않는 재질의 객체를 나타낸다. 한편 212에서 지시하는 부분은 반투명 유리와 같이 빛이 일부 투과되고 일부 반사되는 재질의 객체를 나타낸다. 또한, 213에서 지시하는 부분은 유리와 같이 빛의 투과도가 높은 재질의 객체를 나타낸다. The portion 211 shown in black in the map 210a of FIG. 3 represents an object made of a material through which light does not transmit at all, such as concrete. In addition, the portion indicated at 212 represents an object of a material that is partially transmitted and partially reflected, such as translucent glass. In addition, the portion indicated at 213 represents an object made of a material having high light transmittance, such as glass.

도 3의 맵(210a)에는 20x20의 비트맵 공간 중에서 각 공간의 객체 특성의 범주값으로 설정될 수 있다. In the map 210a of FIG. 3, a category value of an object characteristic of each space may be set in a 20x20 bitmap space.

일 실시예로는 20x20의 비트맵 공간에서 객체 특성의 범주에 따라 상이한 컬러로 표시하는 방식이 있다. 예를 들어, 도 3에서 211에서 지시되는 검은 색 부분은 검은 색으로 표시하며, 212는 노란 색으로, 213은 붉은 색으로 표시하는 방식이 적용될 수 있다. 또는 도 3에 나타난 바와 같이, 상이한 무늬로 표시하는 방식이 있다. One embodiment is a method of displaying in different colors according to a category of object characteristics in a 20x20 bitmap space. For example, a black portion indicated by 211 in FIG. 3 may be displayed in black, 212 may be yellow, and 213 may be displayed in red. Alternatively, as shown in Figure 3, there is a way to display in a different pattern.

또 다른 실시예로는 상이한 숫자로 표시하는 방식이 있다. 211에서 지시되는 검은 색 부분에는 가장 높은 강도의 범주인 9가 설정되고, 212에서 지시되는 부분에는 이보다 낮은 강도의 범주인 7, 그리고 213에서 지시되는 부분에는 이보다 더 낮은 강도의 범주인 3이 설정될 수 있다. Another example is a method of displaying different numbers. The highest intensity category is set to 9 in the black areas indicated at 211, the lower intensity category is set to 7, at the points indicated at 212, and the lower intensity category 3 is set at the points indicated at 213. Can be.

도 4는 객체 특성 저장부(220)에 저장되는 객체의 특성을 보여주는 도면이다.4 is a diagram illustrating a characteristic of an object stored in the object characteristic storage 220.

객체 특성 저장부(220)는 객체 특성의 범주의 정보를 저장하는 범주 저장부(221) 및 객체의 위치 및 강도에 대한 정보가 저장되는 위치 저장부(225)로 나뉘어진다. 범주 저장부(221)는 필드(221a) 및 데이터(221b)로 나뉘어지며 이는 로봇이 주행하는 공간의 특성에 따라 다양하게 구성될 수 있다. The object property storage unit 220 is divided into a category storage unit 221 which stores information of a category of object property, and a location storage unit 225 which stores information on the position and strength of the object. The category storage unit 221 is divided into a field 221a and a data 221b, which may be variously configured according to characteristics of a space in which the robot travels.

일 실시예로 카테고리(Category) 필드는 객체의 특성의 범주를 나타낸다. 도 4에서 221b와 같이 4 종류의 카테고리가 제시되어 있다. 그리고 각 카테고리별로 맵에 표시할 경우의 색상(Color)가 설정될 수 있다. Intensity_Min과 Intensity_Max는 반사 강도의 범위를 의미한다. 이는 도 1의 레이저 수신부(120)에서 수신한 반사 신호의 강도의 값에 따라 설정될 수 있으며, 이를 새로이 변환한 값이 될 수 있다. In one embodiment, the Category field represents a category of properties of the object. In FIG. 4, four types of categories are presented as shown in FIG. Colors for displaying on the map for each category may be set. Intensity_Min and Intensity_Max mean a range of reflection intensities. This may be set according to the intensity value of the reflected signal received by the laser receiver 120 of FIG. 1, and may be a newly converted value.

예를 들어, 도 4에 기반하여 반사 신호의 강도가 실제로 0 내지 100 사이의 값을 가질 수 있다. 다른 실시예로, 반사 신호의 강도는 실제로는 0 내지 10000 사이의 값을 가지지만 이를 0 내지 100의 값으로 변환할 수 있다. 변환하는 방식은 100으로 나누는 방식, 혹은 소정의 해쉬 태이블 또는 함수를 이용하여 변환하는 방식 등이 가능하다. 예를 들어, 반사 신호의 강도가 0 내지 10000 사이에 속하지만, 로봇이 주행한 결과 의미있는 반사 신호의 강도는 3000에서 5000 사이인 경우, 이를 기준으로 0 내지 100으로 변환할 수 있다. For example, based on FIG. 4, the intensity of the reflected signal may actually have a value between 0 and 100. In another embodiment, the intensity of the reflected signal actually has a value between 0 and 10000 but can be converted to a value between 0 and 100. The converting method may be divided by 100, or may be converted using a predetermined hash table or a function. For example, if the intensity of the reflected signal is in the range of 0 to 10000, but the strength of the meaningful reflected signal is 3000 to 5000 as a result of the robot running, it may be converted to 0 to 100 based on this.

또한, 로봇과 객체의 거리를 통해 신호의 강도를 정규화(normalization) 시키는 과정을 추가할 수 있다. 즉, 객체와의 거리가 10미터 인 경우의 신호의 강도와 객체와의 거리가 5미터인 경우의 신호의 강도는 다르므로, 이를 기준 거리에서의 신호의 강도로 변환하여 객체 특성 저장부(220)에 저장할 수 있다. In addition, a process of normalizing the strength of the signal through the distance between the robot and the object may be added. That is, since the intensity of the signal when the distance from the object is 10 meters and the intensity of the signal when the distance from the object is 5 meters are different, the object characteristic storage unit 220 is converted into the intensity of the signal at the reference distance. ) Can be stored.

Material_1 내지 Material_3은 각 범주에 대응하는 객체의 재질에 대한 정보이다. 이는 레이저 센서의 반사 강도에 따라 미리 설정될 수도 있고, 로봇의 다른 센서에서 센싱된 정보 혹은 미리 제공되는 정보에 기반하여 설정될 수 있다.Material_1 to Material_3 are information on the material of the object corresponding to each category. This may be set in advance according to the reflection intensity of the laser sensor, or may be set based on information sensed or provided in advance by another sensor of the robot.

도 4의 221에는 4 종류의 범주가 있으며, 이 중에서 1은 빈공간을 의미한다. 9는 콘크리트, 불투명한 재질 등으로 구성된 객체의 특성을 지시한다. 7은 반투명 유리 혹은 반투명 아크릴 등으로 구성된 객체의 특성을 지시한다. 3은 유리 또는 투명한 아크릴 등으로 구성된 객체의 특성을 지시한다. There are four types of categories in 221 of FIG. 4, where 1 means empty space. 9 indicates the properties of an object composed of concrete, opaque material, and so on. 7 indicates the property of an object composed of translucent glass or translucent acrylic. 3 indicates the property of an object composed of glass or transparent acrylic or the like.

여기서 범주는 로봇이 주행 중 센싱한 정보들을 토대로 재구성할 수 있다. 예를 들어, 7이라는 범주에는 속하지만 특정한 강도의 값을 가지는 객체가 다수 존재하는 것으로 센싱될 경우, 이 객체를 위해 별도의 범주를 추가할 수 있다. 즉 7이라는 범주에 속하지만 50~55 사이의 반사 강도를 가지는 객체가 다수 센싱될 경우, 6이라는 범주를 새로 추가할 수 있다. Here, the category can be reconstructed based on information sensed by the robot while driving. For example, if a number of objects belonging to the category 7 but having a certain intensity value are sensed to exist, a separate category can be added for this object. That is, if a large number of objects belonging to the category of 7 but having a reflection intensity between 50 and 55 are sensed, a new category of 6 can be added.

위치 저장부(225)는 센싱부(100)가 센싱한 객체의 위치 및 특성에 대한 정보를 저장한다. 센싱된 모든 객체의 위치, 정규화한 신호의 강도(Intensity) 및 특성에 대한 정보를 저장하는 것을 일 실시예로 한다. 또한, 센싱된 객체 중 특정 범주에 속한 객체들의 위치 및 특성에 대한 정보를 저장하는 것을 다른 실시예로 한다. The location storage unit 225 stores information about the location and characteristics of the object sensed by the sensing unit 100. According to an embodiment of the present invention, information on locations of all sensed objects, intensity and characteristics of a normalized signal is stored. In another embodiment, storing information about the position and characteristics of the objects belonging to a specific category of the sensed object.

예를 들어, 도 3에서 맵(210a)에는 범주가 9 에 해당하는 객체들에 대한 위치 정보가 211과 같이 기본적으로 저장될 수 있다. 그리고 범주가 212 및 213에서 지시하는 7 또는 3인 객체들의 위치 및 특성에 대한 정보만 위치 저장부(225)에 저장될 수 있다. 이는 공간 내에 주도적으로 배치되는 객체들의 특성에 따라 다양하게 적용할 수 있다.For example, in FIG. 3, location information about objects having a category of 9 may be basically stored in the map 210a as shown in 211. In addition, only the information about the location and the characteristics of the 7 or 3 objects indicated by the categories 212 and 213 may be stored in the location storage unit 225. This can be variously applied according to the characteristics of objects that are dominantly arranged in the space.

도 4의 225에서는 도 3의 212 및 213에서 지시하는 객체들에 대한 위치 정보가 저장된 위치 저장부의 실시예를 보여준다. 4 shows an embodiment of a location storage unit in which location information about objects indicated by 212 and 213 of FIG. 3 is stored.

위치 저장부(225)는 필드(225a) 및 데이터(225b)로 구성된다. 필드는 시리얼(Serial), 범주(Category), 신호의 강도(Intensity), 그리고 객체의 시작 지점(StartX, StartY)와 종료 지점(EndX, EndY)에 대한 정보를 포함한다. 위치 저장부(225)의 데이터(225b)는 도 3의 212 및 213에서 지시되는 객체들의 위치 및 이들의 범주에 대한 정보가 저장한 실시예를 보여준다.The location storage unit 225 is composed of a field 225a and data 225b. The fields include Serial, Category, Intensity of the signal, and information about the start point (StartX, StartY) and end point (EndX, EndY) of the object. The data 225b of the location storage unit 225 shows an embodiment in which information about the locations of the objects and their categories indicated by 212 and 213 of FIG. 3 is stored.

도 4에 제시된 바와 같이, 맵 저장부(200)는 객체 및 객체가 반사한 신호의 강도가 포함된 범주에 따라 구별하여 객체의 정보를 저장한다. 그리고, 로봇은 저장한 정보를 구별하여 표시할 수 있다. 즉, 로봇(1000)의 인터페이스부(600)는 맵 저장부(200)에 저장된 객체의 정보를 신호의 강도가 포함된 범주에 따라 상이하게 표시할 수 있다. 상이하게 표시하는 실시예로는 각 범주에 대해 컬러를 상이하게 설정하는 것을 의미한다. 다른 실시예로, 각 범주에 대해 상이한 무늬로 객체를 표시할 수 있다. 앞서 도 3에서 상이한 무늬 또는 색상으로 객체들을 구별하여 표시하는 실시예를 살펴보았다. As shown in FIG. 4, the map storage unit 200 stores information of an object by distinguishing it according to a category including an intensity of an object and a signal reflected by the object. The robot can distinguish and display the stored information. That is, the interface unit 600 of the robot 1000 may display the information of the object stored in the map storage unit 200 differently according to the category including the signal strength. The embodiment of displaying differently means setting the colors differently for each category. In another embodiment, the objects may be displayed in different patterns for each category. In FIG. 3, an embodiment of distinguishing and displaying objects with different patterns or colors has been described.

도 4에서 제시하는 범주(Category)는 미리 외부적으로 설정될 수도 있으나, 로봇(1000)의 제어부(900) 및 맵 저장부(200)가 저장된 정보를 재그룹하여 특정한 범주에 포함되는 객체들을 둘 이상의 범주로 분리하거나, 혹은 둘 이상의 범주에 포함되는 객체들을 하나의 범주로 통합할 수 있다. The category shown in FIG. 4 may be externally set in advance, but the control unit 900 and the map storage unit 200 of the robot 1000 may regroup the stored information to include two objects included in a specific category. You can separate into more than one category, or combine objects from more than one category into a single category.

또한, 공간의 구성적 특징에서 유리와 같이 라이다 센서가 송신한 신호가 투과되는 공간이 다수 배치되는 경우, 유리를 벽으로 인식할 수 있도록 하여 장애물과 같은 외부의 객체의 재질에 따라 잘못된 값이 획득되거나 획득이 되어지지 않는 경우를 방지할 수 있다. 또한, 이러한 로봇을 구현하여 정확한 맵 정보를 생성할 수 있다. In addition, when there are a large number of spaces through which the signals transmitted by the rider sensor are transmitted, such as glass, the glass may be recognized as a wall so that an incorrect value may be obtained depending on the material of an external object such as an obstacle. It can prevent the case of being acquired or not being acquired. In addition, such a robot can be implemented to generate accurate map information.

도 5는 본 발명의 일 실시예에 의한 로봇이 벽과 유리가 배치된 공간에서 신호의 강도를 이용하여 구별하는 과정을 보여주는 도면이다. 센싱부(100)가 전방으로 180도 범위 내에서 신호를 송신 및 수신하는 구성에 대해 살펴본다. 센싱부(100)는 전방 180도 내에 신호를 순차적으로, 혹은 동시에 송신하고, 외부의 객체로부터 반사되는 신호를 수신한다. 벽(11a, 11b, 12)과 같이 센싱부(100)가 송신한 신호가 투과하지 않는 영역에서는 신호의 강도가 높으며, 유리와 같이 센싱부(100)가 송신한 신호가 일부 투과하는 영역에서는 신호의 강도가 낮다. FIG. 5 is a diagram illustrating a process of distinguishing a robot using signal strength in a space where walls and glass are disposed according to an embodiment of the present invention. It looks at the configuration in which the sensing unit 100 transmits and receives a signal within a 180 degree range forward. The sensing unit 100 sequentially or simultaneously transmits a signal within 180 degrees ahead and receives a signal reflected from an external object. In areas where the signal transmitted by the sensing unit 100 does not transmit, such as walls 11a, 11b, and 12, the signal intensity is high, and in areas where the signal transmitted by the sensing unit 100 partially transmits, such as glass, the signal is transmitted. The intensity of is low.

센싱부(100)가 센싱한 신호의 강도는 하단의 그래프(51)와 같이 표시된다. 설명의 편의를 위하여 센싱부(100)를 중심으로 -45도에서 +45도 사이의 객체의 센싱된 신호의 강도를 보여준다. 유리(10)를 투과하여 유리 뒷편에 배치된 벽(12)으로부터 신호가 반사되어 일부 신호가 수신되며, 또한, 유리(10)를 투과하지 못한 일부 신호가 수신되는 영역(10a)에서의 신호의 강도는 앞쪽의 벽(11a, 11b)에서 반사된 신호의 강도보다 작다. The intensity of the signal sensed by the sensing unit 100 is displayed as shown in the lower graph 51. For convenience of description, the intensity of the sensed signal of the object between -45 degrees and +45 degrees is shown with respect to the sensing unit 100. The signal is reflected from the wall 12 that penetrates the glass 10 and is disposed behind the glass, so that some signals are received, and some of the signals that are not transmitted through the glass 10 are received. The intensity is less than the intensity of the signal reflected from the front walls 11a and 11b.

한편, 센싱부(100)가 센싱한 신호의 거리는 하단의 그래프(52)와 같이 표시된다. 설명의 편의를 위하여 센싱부(100)를 중심으로 -45도에서 +45도 사이의 객체의 센싱된 거리를 보여준다. 유리(10)를 투과하여 유리 뒷편에 배치된 벽(12)으로부터의 거리가 산출된다. 또한, 센싱부(100)의 구성에 따라, 유리(10)를 일부 투과하지 못하여 반사된 신호를 통한 거리 역시 10a 내에서의 점선과 같이 산출될 수 있다. 신호의 거리는 센싱부(100)를 중심으로 한 각도를 반영하여 보정한 값이 52와 같이 표시될 수 있다. Meanwhile, the distance of the signal sensed by the sensing unit 100 is displayed as shown in the graph 52 below. For convenience of description, the sensing distance of the object between -45 degrees and +45 degrees is shown around the sensing unit 100. The distance from the wall 12 penetrating the glass 10 and disposed behind the glass is calculated. In addition, according to the configuration of the sensing unit 100, the distance through the signal reflected by not partially transmitting the glass 10 may also be calculated as a dotted line within 10a. The distance of the signal may be displayed as 52, a value corrected by reflecting an angle with respect to the sensing unit 100 as a center.

도 5의 실시예에서 센싱부(100)가 센싱한 신호의 강도(Intensity) 및 거리(Distance)에 대한 정보는 제어부(900)에게 전달되고, 제어부(900)는 외부 객체들에 대해 센싱된 정보들을 기준으로 맵 저장부(200)에 객체의 정보를 저장할 수 있다. 10a 영역에서 신호의 강도가 약해지는 부분과 신호의 거리가 길어지는 부분에서 반사된 신호의 강도와 거리를 비교하여, 유리(10)가 배치되어 있음을 확인할 수 있다. In the embodiment of FIG. 5, the information about the intensity and distance of the signal sensed by the sensing unit 100 is transmitted to the controller 900, and the controller 900 senses information about external objects. Based on the information, the object information may be stored in the map storage unit 200. In the region 10a, the glass 10 may be disposed by comparing the strength and the distance of the reflected signal in the portion where the signal strength becomes weak and the signal distance becomes long.

일 실시예로, 유리(10)가 없을 경우 예상되는 신호의 강도보다 10a영역에서의 신호의 강도가 더 낮거나 혹은 더 높은 경우에는 벽(12)과 센싱부(100) 사이에 빛을 투과하거나 반사하는 등, 신호의 강도를 왜곡시키는 객체가 배치되어 있음을 제어부(900)가 확인할 수 있다. 또한, 10a영역에서 유리(10)로부터 반사되는 미세한 신호의 거리를 통해 52에 점선으로 표시된 신호 역시 유리(10)가 배치되어 있음을 확인하는 요소가 될 수 있다. In one embodiment, when the glass 10 is absent, if the signal strength in the region 10a is lower or higher than the expected signal strength, light is transmitted between the wall 12 and the sensing unit 100. The controller 900 may confirm that an object that distorts the intensity of the signal, such as reflecting, is disposed. In addition, a signal indicated by a dotted line at 52 through the distance of the minute signal reflected from the glass 10 in the region 10a may also be an element for confirming that the glass 10 is disposed.

도 5와 같은 구조에서 제어부(900)와 맵 저장부(200)는 신호의 강도 및 신호의 거리를 보정하여 저장할 수 있다. 유리(10)가 배치된 영역에서는 유리 및 뒷편의 벽(12) 모두 맵 상에 저장할 수 있다. In the structure as shown in FIG. 5, the controller 900 and the map storage 200 may correct and store the signal strength and the distance of the signal. In the area where the glass 10 is placed, both the glass and the back wall 12 can be stored on the map.

도 6은 본 발명의 일 실시예에 의한 도 5에서 센싱된 객체들을 맵 저장부(200)에 저장한 도면이다. 맵(210b)에는 도 5의 벽(12)의 일부(12a)만이 표시되는데, 이는 앞쪽의 벽들(11a, 11b)로 인해 뒤쪽의 벽(12)의 일부 영역은 거리가 센싱되지 않기 때문이다. 또한 유리(10)는 벽들과 상이하게 표시되도록 맵(210b)에 저장된다. FIG. 6 is a diagram illustrating objects stored in FIG. 5 in the map storage unit 200 according to an embodiment of the present invention. Only a portion 12a of the wall 12 of FIG. 5 is shown in the map 210b because some areas of the back wall 12 are not sensed due to the front walls 11a, 11b. Glass 10 is also stored in map 210b to be displayed differently from the walls.

또한, 공간 사이에 배치되며 인접한 영역의 객체인 벽(11a, 11b)들과 다른 종류의 재질을 가지는 객체(도 5 및 6에서 유리)는 쉽게 제거될 수도 있으므로, 특정 범주에 들어가는 객체들에 대해서는 센싱된 시간에 대한 정보를 추가적으로 저장할 수 있다. In addition, walls 11a and 11b, which are objects between adjacent spaces and objects with different kinds of materials (glass in FIGS. 5 and 6) may be easily removed, so that objects belonging to a specific category may be removed. Information about the sensed time may be additionally stored.

예를 들어, 도 4의 위치 저장부(225)에 SensingTime이라는 필드를 더 추가하고, 해당 객체가 센싱된 시간에 대한 정보를 지속하여 업데이트 할 수 있으며, 센싱 시간이 일정 기간이상 지난 객체에 대해서는 해당 객체가 제거되었는지 여부를 새로이 센싱하여 업데이트할 수도 있다. For example, an additional field called SensingTime may be added to the location storage unit 225 of FIG. 4, and the information about the detected time of the object may be continuously updated. You can also update by sensing whether the object has been removed.

특히, 공항, 터미널과 같이 유동인구가 많으며 공간의 구획이 자주 변경되는 곳에서는 유리를 이용하여 새로운 공간을 구획하거나 혹은 이미 존재하는 공간을 제거할 수 있으므로, 콘크리트와 같이 쉽게 제거하기 어려운 범주에 속하는 객체가 아닌 경우, 유동적인 객체로 판단하여 주기적으로 혹은 특정한 시점을 기준으로 객체들이 그대로 배치되어 있는지 여부를 확인할 수 있다.In particular, where there are many floating populations such as airports and terminals, and the compartments of the spaces are frequently changed, glass can be used to partition new spaces or to remove existing spaces. In the case of non-objects, it can be determined as a fluid object to check whether objects are arranged as they are periodically or at a specific point in time.

라이다 센서와 같이 외부의 객체를 센싱하는 과정에서 신호의 강도(Intensity) 정보와 거리 정보를 동시에 획득이 가능할 경우, 이들 정보를 이용하여 외부의 객체에 대한 정보를 상세하게 획득할 수 있다. 즉, 장애물과 같은 객체의 재질에 따라 서로 다른 강도에 대한 모든 거리 값을 이용하여 매핑을 할 경우 더 많은 장애물 정보의 획득이 가능하다. When it is possible to acquire intensity information and distance information of a signal at the same time in the process of sensing an external object, such as a lidar sensor, the information on the external object can be obtained in detail using these information. That is, when mapping using all distance values for different strengths according to the material of an object such as an obstacle, more obstacle information can be obtained.

또한, 도 4에서 살펴본 바와 같이, 신호의 강도에 대한 구간을 범주로 그룹핑하여 장애물에 컬러나 숫자, 해칭 무늬를 부여하여 장애물의 재질에 따른 구분 및 불필요한 장애물을 제거하기 위한 참조 자료로 사용하여 보다 정확한 맵 생성이 가능하다. In addition, as shown in Figure 4, by grouping the intervals of the signal strength into a category to give color, number, hatching pattern to the obstacle to use as a reference material for the classification and removal of unnecessary obstacles according to the material of the obstacle Accurate map generation is possible.

도 7은 본 발명의 다른 실시예에 의한 로봇이 유리 뒷편에 배치되는 사물들과 유리를 구별하는 과정을 보여주는 도면이다. FIG. 7 is a view illustrating a process of distinguishing the glass from the objects disposed behind the glass by the robot according to another embodiment of the present invention.

도 5의 구성과 달리, 유리(10) 뒷편에는 다수의 진열대(15)가 배치되어 있다. 따라서, 이들 진열대(15)에서 반사되는 신호의 강도와 거리는 도 5에서 살펴본 사항과 상이하다. Unlike the configuration of FIG. 5, a plurality of display stands 15 are arranged behind the glass 10. Therefore, the strength and distance of the signals reflected from the display rack 15 are different from those discussed in FIG. 5.

진열대(15)에서 반사된 신호의 강도는 신호 강도 그래프(71)에서의 71a 부분과 같다. 진열대(15)에서 측정된 거리는 신호 거리 그래프(72)에서의 72a 부분과 같다. 72에서의 점선은 유리와의 거리를 의미한다. 제어부(900)는 71 및 72와 같이 센싱된 정보에서 맵에 정보를 저장하는 과정에서 진열대(15)를 맵에 저장하지 않고, 전면의 유리(10)와 뒷편의 벽(12)을 저장할 수 있다. 이는 71 및 72의 10b 영역에서 신호가 짧은 범위 내에 급격히 변화하는 경우 제어부(900)가 10b 영역을 유리 뒷편에 다양한 사물들이 배치됨으로 인해 신호의 강도와 거리가 변화하는 것으로 맵 저장부(200)에 저장할 수 있다. 도 7에서 센싱된 객체들을 맵 저장부(200)에 저장한 도면은 도 6과 동일할 수 있다. The intensity of the signal reflected from the display rack 15 is equal to the portion 71a in the signal strength graph 71. The distance measured on the display rack 15 is equal to the 72a portion in the signal distance graph 72. The dotted line at 72 means the distance to the glass. The controller 900 may store the glass 10 on the front side and the wall 12 on the rear side without storing the display rack 15 on the map in the process of storing the information on the map from the sensed information such as 71 and 72. . This is because when the signal suddenly changes within a short range in areas 10b of 71 and 72, the controller 900 changes the intensity and distance of the signal due to various objects arranged behind the glass. Can be stored. FIG. 7 is a diagram illustrating an example of storing the objects sensed in FIG. 7 in the map storage unit 200.

도 8은 본 발명의 또다른 실시예에 의한 로봇이 유리가 없는 열린 공간 상에서 다양하게 배치된 사물들을 구별하는 과정을 보여주는 도면이다. FIG. 8 is a diagram illustrating a process of distinguishing objects variously arranged in an open space without glass by a robot according to another embodiment of the present invention.

도 7의 구성과 달리, 다수의 진열대(15)가 배치되어 있으나 진열대(15) 전면에는 유리 또는 벽과 같은 다른 객체가 배치되지 않은 실시예이다. 따라서, 이들 진열대(15)에서 반사되는 신호의 강도와 거리는 도 7에서 살펴본 사항과 상이하다. Unlike the configuration of FIG. 7, a plurality of display racks 15 are arranged, but other objects such as glass or walls are not disposed on the front surface of the display rack 15. Therefore, the strength and distance of the signals reflected from the display rack 15 are different from those discussed in FIG. 7.

진열대(15)에서 반사된 신호의 강도는 신호 강도 그래프(81)에서의 81a 부분과 같다. 진열대(15)에서 측정된 거리는 신호 거리 그래프(82)에서의 82a 부분과 같다. 도 7과 달리 유리와의 거리는 신호 거리 그래프(82)에 배치되어 있지 않다. The intensity of the signal reflected from the display rack 15 is equal to the portion 81a in the signal strength graph 81. The distance measured on the display stand 15 is equal to the 82a portion in the signal distance graph 82. Unlike FIG. 7, the distance from the glass is not disposed in the signal distance graph 82.

제어부(900)는 81 및 82와 같이 센싱된 정보에서 맵에 정보를 저장하는 과정에서 진열대(15)를 맵에 저장하지 않고, 인접한 벽(11a, 11b)의 확장 구간된 구간과 뒷편의 벽(12)을 저장할 수 있다. 센싱부(100)와 진열대(15) 사이에는 로봇(1000)의 이동에 장애가 되는 객체가 존재하자 않는 것은 81 및 82의 그래프를 통하여 제어부(900)가 확인할 수 있다.The controller 900 does not store the display rack 15 in the map in the process of storing the information in the map from the sensed information such as 81 and 82, and the extended section of the adjacent walls 11a and 11b and the rear wall ( 12) can be stored. The controller 900 may confirm that there is no object that prevents the movement of the robot 1000 between the sensing unit 100 and the display rack 15 through the graphs 81 and 82.

그러나 제어부(900)는 센싱된 신호의 강도가 벽(11a, 11b)에서 센싱된 신호의 강도와 비교하여 거리 보정을 한 이후에도 서로 상이한 경우, 진열대(15)와 벽(11a, 11b) 사이의 거리가 미리 설정된 값 이내라고 판단할 경우, 진열대(15)까지 로봇이 진입하지 않고, 벽(11a, 11b)에서 확장된 영역에 객체가 가상으로 존재하는 것으로 맵 저장부(200)에 저장할 수 있다.However, if the strength of the sensed signal is different from each other even after the distance is corrected compared with the strength of the signal sensed by the walls 11a and 11b, the distance between the display rack 15 and the walls 11a and 11b is different. If it is determined that the value is within a preset value, the robot does not enter the display rack 15, and the object may be stored in the map storage unit 200 as the object exists virtually in the regions extended from the walls 11a and 11b.

이 경우, 제어부(900)는 좌측 전면부의 벽(11a) 및 우측 전면부의 벽(11b) 사이에 가상의 유리가 있는 것으로 맵 저장부(200)에 저장할 수 있다. 혹은 유리가 아닌, 가상의 경계선에 대한 정보를 맵 저장부(200)에 저장할 수 있다. In this case, the controller 900 may store the virtual glass between the wall 11a of the left front part and the wall 11b of the right front part, and store the virtual glass in the map storage unit 200. Alternatively, the map storage unit 200 may store information about the virtual boundary line instead of the glass.

도 9는 본 발명의 일 실시예에 의한 가상의 경계선을 맵 저장부에 저장한 도면이다. 90으로 지시되는 영역은 도 8의 는 좌측 전면부의 벽(11a) 및 우측 전면부의 벽(11b) 사이의 공간에 가상의 경계선, 즉 가상의 벽을 지시한다. 마찬가지로, 범주 저장부(221)에는 이에 대응하는 범주(-1)에 대한 정보가 저장된다. "-1"이라는 카테고리를 가지는 영역은 사물이 배치되어 있지 않으나 진입하지 않는 공간으로 인식하여 로봇(1000)은 이동 과정에서 90영역에 대해서는 벽이 배치된 것과 동일하게 동작할 수 있다. 9 is a diagram illustrating a virtual boundary line stored in a map storage unit according to an embodiment of the present invention. The area indicated by 90 indicates a virtual boundary, that is, a virtual wall, in the space between the wall 11a of the left front part and the wall 11b of the right front part of FIG. Similarly, the category storage unit 221 stores information on the category (-1) corresponding thereto. The area having the category of "-1" is recognized as a space in which objects are not arranged but not entered, so that the robot 1000 may operate in the same manner as the wall is disposed in the 90 area during the movement process.

전술한 본 발명의 실시예들을 살펴보면, 로봇(1000)은 외부에 배치되는 객체들의 재질 특성 별로 구별하는 맵(컬러, 또는 무늬 등)을 구성하여 장애물을 구분할 수 있다. 또한 로봇(1000)은 장애물들의 재질 특성을 반영한 맵을 생성하여 맵 정보의 활용이 필요한 다양한 응용 분야에 사용이 가능하다.Looking at the above-described embodiments of the present invention, the robot 1000 may distinguish the obstacle by configuring a map (color, pattern, etc.) to distinguish by the material properties of the objects disposed outside. In addition, the robot 1000 may be used in various application fields that require the use of map information by generating a map reflecting material characteristics of obstacles.

예를 들어, 로봇(1000)이 이동하는 과정에서 벽과 유리를 구분하여 동작하는 것이 필요할 경우, 맵 상에 저장된 상이한 특성의 객체들의 구분된 정보에 따라 로봇(1000)은 이동할 수 있다.For example, when it is necessary to operate the wall and glass separately in the process of moving the robot 1000, the robot 1000 may move according to the separated information of the objects of different characteristics stored on the map.

정리하면, 로봇(1000)의 제어부(900)는 맵 저장부(200)에 센싱되지 않은 가상의 객체에 대한 정보를 저장할 수 있다. 가상의 객체는 가상의 벽과 같이 해당 위치에 객체가 배치되지 않음에도 인접한 객체들(진열대 등)로 인해 가상으로 장애물이 있는 것처럼 맵 저장부(200)에 저장하는 것을 일 실시예로 한다. In summary, the controller 900 of the robot 1000 may store information on the unsensed virtual object in the map storage 200. According to an embodiment of the present disclosure, the virtual object is stored in the map storage unit 200 as if there is an obstacle due to adjacent objects (such as a display stand) even though the object is not disposed at a corresponding position such as a virtual wall.

도 10은 본 발명의 일 실시예에 의한 로봇의 센싱부(100)가 유리벽을 감지하는 경우의 신호 강도의 변화를 보여주는 도면이다. 10 is a view showing a change in signal strength when the sensing unit 100 of the robot according to an embodiment of the present invention detects the glass wall.

벽이 배치된 경우(Wall)와 달리 유리벽이 배치된 경우(Wall w/Glass) 91에서 지시하는 영역과 같이 신호의 강도가 불균질하게 변화함을 확인할 수 있다. 이는 벽 사이에 유리가 배치되거나, 벽 앞에 유리가 배치되는 등 신호의 강도를 저감시키는 객체가 배치된 경우를 보여준다.Unlike the wall arrangement (Wall) and the glass wall arrangement (Wall w / Glass) it can be seen that the signal intensity changes heterogeneously, as shown in the area indicated in 91. This shows a case where an object that reduces the strength of the signal is disposed, such as glass is disposed between walls or glass is placed in front of the wall.

센싱부(100)에서 도 10과 같이 센싱할 경우, 콘크리트와 상이한 재질의 객체가 배치된 것을 확인할 수 있으므로, 상이한 재질의 객체에 대한 정보를 맵 저장부(200)에 달리 저장하여 로봇(1000)이 이동할 경우 이를 참조할 수 있다. When the sensing unit 100 senses as shown in FIG. 10, since the object of the material different from the concrete may be confirmed, the robot 1000 may be stored differently in the map storage unit 200. If it moves, you can refer to it.

또한, 객체의 재질이 반영된 정보는 다른 로봇들과 공유하거나 중앙 서버로 전송될 수 있다. 이는 중앙 서버에서 공간을 구성하는 객체들의 특징을 파악하는 근거가 될 수 있다. 또한, 신호의 반사 강도가 가지는 오차 혹은 범위를 고려하여 도 4에서 살펴본 바와 같이 범주화를 적용하여 객체들의 특성을 그룹핑할 수 있다. In addition, the information reflecting the material of the object may be shared with other robots or transmitted to the central server. This can be the basis for understanding the characteristics of the objects that make up the space in the central server. In addition, the characteristics of the objects may be grouped by applying categorization as shown in FIG. 4 in consideration of an error or a range of the reflection intensity of the signal.

도 11 및 도 12는 본 발명의 다른 실시예에 의한 로봇의 센싱부(100)가 신호의 강도와 거리를 함께 센싱한 결과를 보여주는 도면이다. 도 11에서 92가 지시하는 영역은 신호의 강도가 강한 영역을 보여준다. 도 11에서 93은 신호의 강도가 약하면서 먼 거리에 객체가 배치되는 것을 보여준다. 그런데, 93과 같은 영역의 폭이 크지 않으므로, 이는 벽에 반사 물질이 배치되거나 혹은 유리가 배치되어 있는 영역이 될 수 있다. 이에, 제어부(900)는 도 11과 같이 센싱된 데이터를 기반으로 도 12와 같이 벽(94)이 배치된 것으로 맵 저장부(200)에 저장할 수 있다.11 and 12 are diagrams illustrating a result of sensing the signal strength and distance by the sensing unit 100 of the robot according to another embodiment of the present invention. In FIG. 11, the region indicated by 92 represents a region where the signal strength is strong. In FIG. 11, 93 shows that the object is disposed at a long distance while the signal strength is weak. However, since the width of the region such as 93 is not large, it may be an area in which reflective material is disposed on the wall or glass is disposed. Accordingly, the controller 900 may store the wall 94 in the map storage unit 200 as shown in FIG. 12 based on the sensed data as shown in FIG. 11.

도 13은 본 발명의 일 실시예에 의한 로봇이 객체의 특성이 적용된 맵을 작성하는 과정을 보여주는 과정을 보여주는 도면이다. FIG. 13 is a diagram illustrating a process of creating a map to which a characteristic of an object is applied by a robot according to an embodiment of the present invention.

로봇(1000)의 센싱부(100)가 센싱 가능 범위 내의 하나 이상의 객체의 거리 정보와 특성 정보를 센싱한다(S1310). 그리고 로봇(1000)의 제어부(900)가 거리 정보와 특성 정보에서 센싱부(100)의 신호가 투과하는 제1객체 및 센싱부(100)의 신호가 불투과하는 제2객체를 식별한다(S1320). 일 실시예로 제1객체는 유리가 될 수 있으며, 제2객체는 콘크리트로 구성되는 벽이 될 수 있다. The sensing unit 100 of the robot 1000 senses distance information and characteristic information of one or more objects within a sensing range (S1310). The controller 900 of the robot 1000 identifies the first object through which the signal of the sensing unit 100 transmits and the second object through which the signal of the sensing unit 100 is not transmitted in the distance information and the characteristic information (S1320). ). In one embodiment, the first object may be glass, and the second object may be a wall made of concrete.

제1객체는 투과성이라는 특성을 가지므로, 제어부(900)는 제1객체의 위치 정보와 특성 정보를 맵 저장부(200)에 저장한다(S1330). 특성 정보가 저장되는 실시예는 도 2 및 도 4에서 살펴본 바와 같다. Since the first object has a property of transparency, the controller 900 stores the location information and the property information of the first object in the map storage unit 200 (S1330). An embodiment in which the characteristic information is stored is as described with reference to FIGS. 2 and 4.

그리고 제어부(900)는 제2객체의 위치 정보를 맵 저장부(200)에 저장한다(S1340). 여기서 제2객체의 특성 정보는 선택적으로 맵 저장부(200)에 저장될 수 있다. The controller 900 stores the position information of the second object in the map storage unit 200 (S1340). In this case, the characteristic information of the second object may be selectively stored in the map storage unit 200.

본 발명의 일 실시예에 의하면, 전체 공간에서 기준이 되는 특성(콘크리트 벽과 같은)을 가지는 제2객체에 대해서는 불변하는 고정객체로 저장하며, 제1객체에 대해서는 가변객체로 저장할 수 있다. 가변객체로 저장할 경우, 제1객체에 대한 센싱 시간 정보가 맵 저장부(200)에 저장되는 것을 일 실시예로 한다.According to an embodiment of the present invention, a second object having a characteristic (such as a concrete wall) as a reference in the entire space may be stored as an immutable fixed object, and a first object may be stored as a variable object. When storing as a variable object, the sensing time information for the first object is stored in the map storage unit 200 according to an embodiment.

여기서 제1객체 또는 제2객체의 일 실시예는 맵 저장부에 저장하는 단위에 대응하여 배치되는 객체를 의미한다. 예를 들어 로봇의 전면에 1m x 1m 넓이의 유리가 있고, 로봇은 10cm 단위로 정보를 저장할 때, 로봇은 전면에 배치된 1m 폭의 유리에 대해 10cm 크기의 10개의 객체들의 거리 정보 및 센싱된 신호의 강도에 대한 정보를 저장할 수 있다. Here, an embodiment of the first object or the second object means an object disposed corresponding to a unit stored in the map storage unit. For example, when there is 1m x 1m wide glass on the front of the robot, and the robot stores information in 10cm units, the robot detects the distance information and sensing of 10 objects of 10cm size for the 1m wide glass placed on the front. Information about the strength of the signal can be stored.

도 13의 과정에 추가적으로, 도 9에서 살펴본 바와 같이, 제어부(900)는 맵 저장부(200)에 센싱되지 않은 가상의 객체에 대한 정보를 저장하는 단계를 더 포함할 수 있다. 이는, 진열대가 배치되는 공간에 로봇(1000)이 더 이상 진입하지 않도록 가상의 벽을 맵 상에 저장하는 것을 의미한다. 가상의 벽은 인접한 벽 또는 인접한 특수한 재질의 객체들에 연장하여 배치할 수 있다. 도 9에서는 11a 및 11b의 연장선에 가상의 벽(90)을 배치한 실시예를 살펴보았다. In addition to the process of FIG. 13, as described above with reference to FIG. 9, the controller 900 may further include storing information on an unsensed virtual object in the map storage 200. This means that the virtual wall is stored on the map so that the robot 1000 no longer enters the space where the display rack is disposed. The imaginary wall can be placed extending from adjacent walls or objects of adjacent special material. In FIG. 9, the embodiment in which the virtual wall 90 is disposed on the extension lines 11a and 11b has been described.

도 14는 본 발명의 일 실시예에 의한 라이다 센서가 객체의 반사 신호를 수신하는 과정을 보여주는 도면이다. 도 1에서 살펴본 바와 같이, 센싱부(100)는 라이다 센서로, 레이저 송신부(110), 레이저 수신부(120), 그리고 센싱 데이터 분석부(130)를 포함할 수 있다. 14 is a diagram illustrating a process of receiving a reflection signal of an object by a lidar sensor according to an embodiment of the present invention. As illustrated in FIG. 1, the sensing unit 100 may be a lidar sensor, and may include a laser transmitter 110, a laser receiver 120, and a sensing data analyzer 130.

레이저 송신부(110)가 신호, 즉 레이저 신호를 송신한다(S1311). 그리고 레이저 수신부(120)가 송신한 신호가 제1객체에서 반사된 신호를 수신한다(S1312). 그리고, 레이저 수신부는 제1객체 후면에 배치된 제3객체에서 반사된 신호를 수신한다(S1313). 제1객체는 유리와 같이 신호의 일부를 투과시키며, 제3객체에서 반사된 신호는 제1객체를 투과하여 전달된 신호이므로, 신호의 강도가 약하게 된다. 따라서, 이러한 약해진 신호의 강도가 제1객체의 특성으로 저장될 수 있다. The laser transmitter 110 transmits a signal, that is, a laser signal (S1311). In operation S1312, the signal transmitted from the laser receiver 120 reflects the signal reflected from the first object. In operation S1313, the laser receiver receives the signal reflected from the third object disposed on the rear surface of the first object. Since the first object transmits a part of the signal like glass, the signal reflected from the third object is a signal transmitted through the first object, and thus the strength of the signal is weak. Thus, the strength of this weakened signal can be stored as a characteristic of the first object.

즉, 로봇의 센싱 데이터 분석부는 반사된 신호의 강도 및 제1객체와 제3객체의 거리 정보를 제어부에 전달한다(S1314). 따라서, 센싱된 객체 특성은 상기 제1객체 또는 제3객체에서 반사되어 상기 레이저 수신부에 수신된 신호의 강도(Intensity)를 포함할 수 있다.That is, the sensing data analyzer of the robot transmits the intensity of the reflected signal and the distance information of the first object and the third object to the controller (S1314). Accordingly, the sensed object characteristic may include an intensity of a signal reflected by the first object or the third object and received by the laser receiver.

도 15는 본 발명의 일 실시예에 의한 제어부가 센싱된 외부의 객체의 정보를 맵 저장부에 저장하는 과정에 관한 도면이다. FIG. 15 is a diagram illustrating a process of storing, by a controller, information on an external object sensed by a controller according to an embodiment of the present invention in a map storage unit.

외부의 객체의 정보를 저장하는 과정, 즉 S1330 단계를 보다 상세히 진행하면, 제어부(900)가 제1객체의 신호의 강도가 포함된 범주에 따라 구별하여 제1객체의 정보를 맵 저장부(200)에 저장한다. 보다 상세히 도 15의 순서도를 살펴본다. If the process of storing the information of the external object, that is, the step S1330 in more detail, the controller 900 distinguishes the information of the first object according to the category including the intensity of the signal of the first object map storage unit 200 Save it). Look at the flow chart of Figure 15 in more detail.

제어부(900)는 센싱 데이터 분석부(130)가 제공하는 제1객체의 신호 강도를 거리 정보를 이용하여 정규화한다(S1331). 로봇의 전면 10미터에 배치된 유리로부터 반사되는 신호의 강도와 전면의 5미터에 배치된 유리로부터 반사되는 신호의 강도는 상이하다. 또한, 정규화 과정에서 인접한 불투명한 객체와의 거리를 참고할 수 있다. The controller 900 normalizes the signal strength of the first object provided by the sensing data analyzer 130 by using the distance information (S1331). The intensity of the signal reflected from the glass placed 10 meters in front of the robot and the signal reflected from the glass placed 5 meters in front of the robot are different. You can also refer to the distance to adjacent opaque objects during normalization.

예를 들어, 도 5에서 10이 지시하는 유리의 신호 강도를 정규화하는 과정에서 11a 또는 11b의 객체와의 거리를 참고할 수 있다. 다만, 공간이 돌출하거나 함몰된 공간도 존재할 수 있으므로, 인접한 다른 재질의 객체와의 거리는 맵 상에서 로봇이 위치한 주변 공간의 정보를 반영하여 참고할 수 있다. For example, in the process of normalizing the signal strength of the glass indicated by 10 in FIG. 5, the distance to the object of 11a or 11b may be referred to. However, since a space may protrude or be depressed, the distance from an object of another material that is adjacent may be referred to by reflecting information of the surrounding space where the robot is located on the map.

이후, 제어부(900)는 정규화한 신호 강도가 포함된 범주를 맵 저장부(200)에서 확인한다(S1332). 도 4의 범주 저장부(221)에서 정규화한 신호 강도가 Intensity_Min과 Intensity_Max 사이에 포함되는지를 확인할 수 있다. 범주가 존재하는 경우(S1333), 존재하는 범주에 따라 제1객체의 정보를 저장한다(S1337). 맵(210)에 제1객체의 위치 정보를 저장할 수 있고, 위치 저장부(225)에 제1객체의 위치 정보, 범주에 대한 정보, 그리고 신호의 강도에 대한 정보를 저장할 수 있다. Thereafter, the controller 900 checks the category including the normalized signal strength in the map storage unit 200 (S1332). It may be checked whether the signal strength normalized by the category storage unit 221 of FIG. 4 is included between Intensity_Min and Intensity_Max. If a category exists (S1333), the information of the first object is stored according to the existing category (S1337). The location information of the first object may be stored in the map 210, and the location information of the first object, information about a category, and information about a signal strength may be stored in the location storage 225.

한편, 제어부(900)는 공간 내에 배치되는 객체들의 신호의 강도의 특성과 범주가 적절하게 대응되는지를 확인한다. 일 실시예로, 제1객체의 정보가 범주 내에서 경계에 배치되는지 혹은 중간에 배치되는지를 확인한다(S1338). 예를 들어, 제1객체의 정규화한 신호 강도가 Category_6 이라는 범주에 들어가며 Category_6의 범주는 600에서 800 사이의 신호 강도인 경우를 가정한다. 제1객체의 신호 강도가 601이면 Category_6이라는 범주의 경계 영역에 배치됨을 의미한다. 이 경우, 다른 객체의 신호 강도를 맵 저장부(200)에서 검색하여 새로운 범주를 생성할 수 있다. 이는 맵 상에서 범주 별로 객체들을 달리 표시하는 과정에서 서로 구별이 필요한 객체들을 구분하기 위한 실시예이다. On the other hand, the controller 900 checks whether the characteristics and the categories of the signal strengths of the signals of the objects arranged in the space correspond appropriately. In one embodiment, it is checked whether the information of the first object is arranged in the boundary or in the middle (S1338). For example, it is assumed that the normalized signal strength of the first object falls into a category called Category_6, and the category of Category_6 is between 600 and 800. If the signal strength of the first object is 601, it means that the first object is arranged in the boundary region of the category of Category_6. In this case, the signal strength of another object may be searched in the map storage unit 200 to generate a new category. This is an embodiment for distinguishing objects that need to be distinguished from each other in the process of differently displaying objects for each category on the map.

S1338의 경계에 배치되는지 여부의 추가적인 실시예로, 제어부(900)는 해당 범주에 해당하는 객체들의 신호의 강도의 평균값, 분산값, 또는 표준편차 등을 산출할 수 있다. Category_6 라는 범주 내에 속하는 객체들이 600에서 650 사이의 신호 강도를 가지는 제1그룹과 760에서 790 사이의 신호 강도를 가지는 제2그룹으로 구분될 경우, Category_6-1 및 Category_6-2로 나누어 보다 정확하게 상이한 재질의 객체들을 구분할 수 있다. In a further embodiment of whether or not disposed at the boundary of S1338, the controller 900 may calculate an average value, a variance value, or a standard deviation of the intensity of signals of objects corresponding to the corresponding category. When objects belonging to the category Category 6 are divided into a first group having a signal strength between 600 and 650 and a second group having a signal strength between 760 and 790, the material is divided into Category_6-1 and Category_6-2 to be more precisely different materials. You can distinguish objects in.

한편, S1333에서 객체의 신호 강도에 대응하는 범주가 존재하지 않는 경우, 제1객체의 신호 강도에 일정한 마진(margin)을 포함시켜 범주를 새로이 생성할 수 있다(S1334). 예를 들어 도 4에서 신호의 강도가 100 이상인 경우가 발생한다면 이를 포함하는 새로운 범주가 추가될 수 있다. 그리고 생성한 범주에 따라 제1객체의 정보를 저장한다(S1335). On the other hand, if there is no category corresponding to the signal strength of the object in S1333, a new margin may be generated by including a certain margin in the signal strength of the first object (S1334). For example, if a signal intensity of 100 or more occurs in FIG. 4, a new category including the same may be added. In operation S1335, information on the first object is stored according to the created category.

도 15를 살펴보면, 로봇의 제어부(900)는 맵 저장부(200)에 저장된 객체의 특성 정보에 따라 범주를 재조정할 수 있다. Referring to FIG. 15, the controller 900 of the robot may readjust categories according to property information of an object stored in the map storage 200.

도 16은 본 발명의 일 실시예에 의한 로봇이 주변의 객체의 특성 정보에 대응하여 상이하게 동작하는 과정을 보여주는 도면이다. 16 is a diagram illustrating a process in which a robot operates differently in response to characteristic information of surrounding objects according to an embodiment of the present invention.

앞서, 기능부(400) 또는 이동부(300)는 로봇의 현재 위치에서 인접하게 배치된 객체의 특성 정보에 대응하여 상이하게 동작하는 것에 대해 살펴보았다. 이를 보다 상세히 살펴본다. Previously, the functional unit 400 or the moving unit 300 has been described to operate differently in response to the characteristic information of the object disposed adjacent to the current position of the robot. Look at this in more detail.

제어부(900)는 진행 방향에 배치된 객체의 특성 정보를 맵 저장부(200)에서 확인한다(S1610). 그리고 객체의 범주가 "Risk_Category"인지 확인한다(S1620). "Risk_Category"는 제어부(900) 또는 맵 저장부(200)에 미리 설정된 것으로, 도 4에서 범주가 3인 객체들이 "Risk_Category"에 포함되는 것을 일 실시예로 한다. The controller 900 checks the property information of the object disposed in the advancing direction in the map storage unit 200 (S1610). Then, it is checked whether the category of the object is "Risk_Category" (S1620). "Risk_Category" is previously set in the controller 900 or the map storage unit 200. In an embodiment, objects having a category of 3 are included in "Risk_Category".

S1620에서 객체의 범주가 "Risk_Category"가 아닌 경우, 제어부(900)는 이동부(300) 또는 기능부(400)를 일반 대응 모드로 유지한다(S1630). 한편, S1620에서 객체의 범주가 "Risk_Category"인 경우, 제어부(900)는 이동부(300) 또는 기능부(400)를 Risk_Category 대응 모드로 유지한다(S1640). Risk_Category 대응 모드는 외부에 배치된 객체가 파손 가능성이 있는 재질인 것으로 판단하여 이동 속도를 줄이는 것을 일 실시예로 한다. If the category of the object is not "Risk_Category" in S1620, the controller 900 maintains the moving unit 300 or the functional unit 400 in the normal corresponding mode (S1630). On the other hand, if the category of the object is "Risk_Category" in S1620, the control unit 900 maintains the moving unit 300 or the functional unit 400 in Risk_Category corresponding mode (S1640). According to an embodiment of the Risk_Category response mode, it is determined that an object disposed outside is a material that may be damaged, and thus the movement speed is reduced.

또한, 기능부(400)가 청소를 수행하는 기능인 경우, 청소 과정에서 외부의 객체가 손상되지 않도록 한다. 예를 들어, 물걸레 기능을 수행할 경우, 물걸레의 회전 속도를 줄이거나 월팔로잉(Wall-Following) 청소 기능에서 객체와의 거리를 멀리하는 등을 의미한다. In addition, in the case where the function unit 400 performs the cleaning, the external object may not be damaged during the cleaning process. For example, when performing the mop function, it means to reduce the rotation speed of the mop or to keep the distance from the object in the wall-following cleaning function.

본 명세서에서 살펴본 실시예들은 라이다(LiDAR) 센서가 외부의 객체를 센싱하는 과정에서 취득하는 신호의 강도(Intensity) 정보를 활용하여 이들 객체를 맵 상에 컬러 혹은 무늬, 숫자 등으로 구분하여 표시하여 장애물들을 구분할 수있도록 한다. 장애물 별로 획득된 신호의 강도(Intensity)에 대한 정보를 활용하여 장애물에 대한 대응 동작을 수행할 수 있다. 특히, 본 발명의 실시예를 적용할 경우, 반사 재질에서 획득된 잘못된 거리 정보를 추출하는 것을 방지할 수 있다. Embodiments described in the present specification are displayed by dividing the objects by color, pattern, number, etc. on the map using the intensity information of the signal acquired by the LiDAR sensor in the process of sensing an external object. To identify obstacles. Corresponding operation may be performed by using information on the intensity of a signal acquired for each obstacle. In particular, when applying the embodiment of the present invention, it is possible to prevent the extraction of wrong distance information obtained from the reflective material.

도 17은 본 발명의 일 실시예에 의한 다수의 로봇 사이에, 혹은 로봇과 서버 사이에 객체의 위치 및 특성 정보를 교환하는 과정을 보여주는 도면이다. FIG. 17 is a view illustrating a process of exchanging position and characteristic information of an object between a plurality of robots or between a robot and a server according to an embodiment of the present invention.

서버(2000)는 다수의 로봇들(1000a, ..., 1000z)에게 객체의 위치 및 특성 정보를 다운로드(S1701, S1702) 송신한다. 로봇들(1000a, ..., 1000z)은 수신된 객체의 위치 및 특성 정보를 맵 저장부(200)에 업데이트한다. 서버(2000)는 다수의 로봇들(1000a, ..., 1000z)이 전송한 객체의 위치 및 특성 정보를 분석하여 동일한 위치에서 중복하여 센싱된 정보는 새로이 업데이트 하여 하나의 객체에 대한 위치 및 특성 정보로 저장할 수 있다. 또한, 센싱된 시간 정보(SensingTime)가 도 4에 저장될 수 있으며, 이를 기반으로 특정 위치에서 센싱된 객체가 제거되었는지를 확인할 수 있다. 유리로 가벽을 만드는 경우 가벽이 제거된 후에는 맵 저장부(200)에서도 제거하여 로봇이 이동할 수 있도록 한다. 이후 로봇들(1000a, ..., 1000z)은 주행 과정에서 객체의 위치 및 특성 정보를 업데이트한다(S1710, S1720). 일 실시예로 각 로봇이 보유하는 맵 저장부의 정보를 업데이트하는 것을 포함한다. 또한, 로봇 중에서 인접하여 위치하는 로봇 사이에서는 새로이 습득한 객체의 위치 및 특성 정보를 쉐어링할 수 있다(S1715). 이때 객체의 위치 및 특성 정보의 쉐어링은 일정한 범위 내에 근접해있는 로봇들에게만 한정하여 제공할 수 있다. 또는, 로봇 이후에 해당 공간으로 이동하는 것이 예정된 로봇에게 제공할 수도 있다. The server 2000 transmits the location and characteristic information of the object to the plurality of robots 1000a,..., And 1000z (S1701, S1702). The robots 1000a,..., 1000z update the location and characteristic information of the received object to the map storage 200. The server 2000 analyzes the position and characteristic information of the objects transmitted by the plurality of robots 1000a, ..., 1000z and updates the duplicated information at the same position by newly updating the position and characteristic of one object. Can be stored as information. In addition, the sensed time information (SensingTime) may be stored in FIG. 4, and based on this, it may be checked whether an object sensed at a specific location is removed. When the wall is made of glass, after the wall is removed, the robot is moved by removing it from the map storage unit 200. Afterwards, the robots 1000a,..., 1000z update the position and characteristic information of the object during the driving process (S1710, S1720). In one embodiment, the method includes updating information on a map storage unit held by each robot. In addition, among the robots located adjacent to each other, the newly acquired object may be shared with the location and characteristic information (S1715). In this case, the sharing of the position and characteristic information of the object may be provided only to robots that are in close proximity to a certain range. Alternatively, moving to the space after the robot may be provided to the predetermined robot.

그리고 각각의 로봇들(1000a, ..., 1000z)은 주행 중 취득한 객체의 위치 및 특성 정보를 서버로 업로드(S1711, S1721) 송신한다. Each of the robots 1000a, ..., 1000z uploads the position and characteristic information of the object acquired while driving to the server (S1711, S1721).

서버(2000)는 수신한 객체의 위치 및 특성 정보를 업데이트 하며(S1730) 이 과정에서 중복된 정보를 하나의 객체에 대한 정보로 정리하거나, 혹은 객체의 특성 정보(정규화된 신호의 강도)가 변동이 발생한 경우 이를 반영하여 새로이 객체의 위치 및 특성 정보를 다운로드한다(S1731, S1732). The server 2000 updates the location and characteristic information of the received object (S1730). In this process, the duplicated information is organized into information about one object, or the characteristic information (normalized signal strength) of the object is changed. In this case, the location and property information of the object is newly downloaded by reflecting this (S1731 and S1732).

본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니며, 본 발명의 목적 범위 내에서 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 반도체 기록소자를 포함하는 저장매체를 포함한다. 또한 본 발명의 실시예를 구현하는 컴퓨터 프로그램은 외부의 장치를 통하여 실시간으로 전송되는 프로그램 모듈을 포함한다. Although all components constituting the embodiments of the present invention have been described as being combined or operating in combination, the present invention is not necessarily limited to these embodiments, and all of the components are within the scope of the present invention. It can also be combined to operate selectively. In addition, although all of the components may be implemented in one independent hardware, each or all of the components are selectively combined to perform some or all of the functions combined in one or a plurality of hardware. It may be implemented as a computer program having a. Codes and code segments constituting the computer program may be easily inferred by those skilled in the art. Such a computer program may be stored in a computer readable storage medium and read and executed by a computer, thereby implementing embodiments of the present invention. The storage medium of the computer program includes a storage medium including a magnetic recording medium, an optical recording medium and a semiconductor recording element. In addition, the computer program for implementing an embodiment of the present invention includes a program module that is transmitted in real time through an external device.

이상에서는 본 발명의 실시예를 중심으로 설명하였지만, 통상의 기술자의 수준에서 다양한 변경이나 변형을 가할 수 있다. 따라서, 이러한 변경과 변형이 본 발명의 범위를 벗어나지 않는 한 본 발명의 범주 내에 포함되는 것으로 이해할 수 있을 것이다.In the above description, the embodiment of the present invention has been described, but various changes and modifications can be made at the level of ordinary skill in the art. Therefore, it will be understood that such changes and modifications are included within the scope of the present invention without departing from the scope of the present invention.

1000: 로봇 100: 센싱부
200: 맵저장부 210: 맵
220: 객체특성 저장부 221: 범주 저장부
225: 위치 저장부 300: 이동부
400:기능부 500: 통신부
600: 인터페이스부 2000: 서버
1000: robot 100: sensing unit
200: map storage unit 210: map
220: object property storage unit 221: category storage unit
225: location storing unit 300: moving unit
400: function unit 500: communication unit
600: interface unit 2000: server

Claims (15)

로봇의 이동을 제어하는 이동부;
로봇의 이동 시 참조하는 맵을 저장하는 맵 저장부;
로봇의 외부에 배치된 하나 이상의 객체를 센싱하며 레이저 송신부, 레이저 수신부 및 센싱데이터 분석부를 포함하는 센싱부; 및
상기 이동부, 맵 저장부, 센싱부를 제어하며, 상기 센싱된 객체의 위치 정보와 특성 정보를 산출하는 제어부를 포함하며,
상기 로봇의 제어부는 상기 센싱된 객체의 위치 정보와 특성 정보를 상기 맵 저장부에 저장하며,
상기 센싱된 객체 특성 정보는
상기 레이저 송신부가 송신한 신호가 상기 객체에서 반사되어 상기 레이저 수신부에 수신된 신호의 반사 강도(Intensity)를 포함하며,
상기 제어부는 상기 반사 강도를 이용하여 객체의 특성 정보를 콘크리트 또는 불투명한 재질로 구성된 제1범주, 반투명 유리 또는 반투명 아크릴로 구성된 제2범주, 투명 유리 또는 투명 아크릴로 구성된 제3범주로 구분하며,
상기 맵 저장부는 객체의 특성 정보를 범주화한 범주에 대한 정보를 더 포함하며,
상기 제어부는 진행 방향에 배치된 객체의 특성 정보가 상기 제2범주 또는 제3범주에 속하는 경우 이동 속도를 줄이는, 객체의 특성이 적용된 맵을 작성하는 로봇.
Moving unit for controlling the movement of the robot;
A map storage unit for storing a map referenced when the robot moves;
A sensing unit which senses one or more objects disposed outside the robot and includes a laser transmitter, a laser receiver, and a sensing data analyzer; And
A control unit which controls the moving unit, the map storage unit, and the sensing unit, and calculates position information and characteristic information of the sensed object;
The controller of the robot stores position information and characteristic information of the sensed object in the map storage unit,
The sensed object property information
A signal transmitted by the laser transmitter is reflected from the object and includes an intensity of reflection of the signal received by the laser receiver,
The control unit divides the characteristic information of the object into a first category composed of concrete or an opaque material, a second category composed of translucent glass or translucent acrylic, a third category composed of transparent glass or transparent acrylic, using the reflection intensity,
The map storage unit further includes information on a category that categorizes property information of an object.
And the controller is configured to create a map to which the property of the object is applied to reduce the moving speed when the property information of the object disposed in the advancing direction belongs to the second or third category.
제1항에 있어서,
상기 맵 저장부는
상기 로봇이 이동하는 공간에 대한 정보를 저장하는 맵; 및
상기 공간에 배치된 객체의 재질 특성을 저장하는 객체 특성 저장부를 포함하는, 객체의 특성이 적용된 맵을 작성하는 로봇.
The method of claim 1,
The map storage unit
A map storing information about a space in which the robot moves; And
And a object property storage unit configured to store material properties of the objects arranged in the space.
제1항에 있어서,
상기 센싱부는
유리를 투과하여 유리 뒷편에 배치된 벽으로부터 반사된 제1신호 및 상기 유리를 일부 투과하지 못한 제2신호를 수신하며,
상기 제어부는 상기 신호의 강도 및 신호의 거리를 보정하여 상기 맵 저장부에 상기 유리 및 상기 유리 뒷편의 벽을 맵에 저장하는, 객체의 특성이 적용된 맵을 작성하는 로봇.
The method of claim 1,
The sensing unit
Receives a first signal transmitted through the glass and reflected from a wall disposed behind the glass and a second signal not partially transmitted through the glass,
The controller generates a map to which the property of the object is applied, correcting the intensity of the signal and the distance of the signal to store the glass and the wall behind the glass in a map in the map storage unit.
제1항에 있어서,
상기 맵 저장부는 상기 객체 및 상기 객체의 상기 신호의 강도가 포함된 범주에 따라 구별하여 상기 객체의 정보를 저장하며,
상기 로봇은 상기 맵 저장부에 저장된 객체의 정보를 상기 신호의 강도가 포함된 범주에 따라 상이하게 표시하는 인터페이스부를 더 포함하는, 객체의 특성이 적용된 맵을 작성하는 로봇.
The method of claim 1,
The map storage unit stores information of the object by distinguishing according to a category including the object and the strength of the signal of the object,
The robot may further include an interface unit configured to display information of an object stored in the map storage unit differently according to a category including the strength of the signal.
제1항에 있어서,
상기 제어부는 상기 맵 저장부에 센싱되지 않은 가상의 객체에 대한 정보를 저장하는, 객체의 특성이 적용된 맵을 작성하는 로봇.
The method of claim 1,
The controller is configured to create a map to which the characteristics of the object are applied to store information about the virtual object not sensed in the map storage unit.
제1항에 있어서,
청소를 수행하는 기능을 제공하는 기능부를 더 포함하며,
상기 기능부가 청소를 수행하는 기능인 경우, 상기 제2범주 또는 상기 제3범주에 속하는 객체 근처에서 상기 기능부는 물걸레 기능 수행에서 물걸레의 회전 속도를 줄이거나, 월 팔로잉 청소 기능에서 상기 제2범주 또는 상기 제3범주에 속하는 객체와의 거리를 멀리하는, 객체의 특성이 적용된 맵을 작성하는 로봇.
The method of claim 1,
It further includes a functional unit that provides a function to perform the cleaning,
When the function unit is a function for performing cleaning, the function unit reduces the rotational speed of the mop in performing the mop function near the object belonging to the second category or the third category, or the second category or in the month following cleaning function. A robot for creating a map to which the property of the object is applied, which is far from the object belonging to the third category.
제1항에 있어서,
상기 로봇의 제어부는 상기 맵 저장부에 저장된 객체의 특성 정보에 따라 상기 범주를 재조정하는, 객체의 특성이 적용된 맵을 작성하는 로봇.
The method of claim 1,
The controller of the robot generates a map to which the characteristics of the object are applied to readjust the category according to the characteristic information of the object stored in the map storage unit.
로봇의 센싱부가 센싱 가능 범위 내의 하나 이상의 객체의 위치 정보와 특성 정보를 센싱하는 단계;
로봇의 제어부가 상기 위치 정보와 특성 정보에서 상기 센싱부의 신호가 투과하는 제1객체 및 상기 센싱부의 신호가 불투과하는 제2객체를 식별하는 단계;
상기 제어부가 상기 제1객체의 위치 정보 및 특성 정보 및 상기 특성 정보를 범주화한 범주에 대한 정보를 맵 저장부에 저장하는 단계; 및
상기 제어부가 상기 제2객체의 위치 정보를 상기 맵 저장부에 저장하는 단계를 포함하며,
상기 센싱부는 라이다 센서이며, 레이저 송신부, 레이저 수신부 및 센싱데이터 분석부를 포함하며,
상기 센싱된 객체 특성 정보는
상기 레이저 송신부가 송신한 신호가 상기 객체에서 반사되어 상기 레이저 수신부에 수신된 신호의 반사 강도(Intensity)를 포함하며,
상기 제어부는 상기 반사 강도를 이용하여 객체의 특성 정보를 콘크리트 또는 불투명한 재질로 구성된 제1범주, 반투명 유리 또는 반투명 아크릴로 구성된 제2범주, 투명 유리 또는 투명 아크릴로 구성된 제3범주로 구분하는 단계; 및
상기 제어부는 진행 방향에 배치된 객체의 특성 정보가 상기 제2범주 또는 제3범주에 속하는 경우 이동 속도를 줄이는 단계를 더 포함하는, 객체의 특성이 적용된 맵을 작성하는 방법.
Sensing position information and characteristic information of one or more objects within a sensing range by a sensing unit of a robot;
Identifying, by the controller of the robot, a first object through which the signal of the sensing unit is transmitted and a second object through which the signal of the sensing unit is opaque from the position information and the characteristic information;
Storing, by the controller, in a map storage unit, location information and characteristic information of the first object, and information on a category that categorizes the characteristic information; And
Storing, by the controller, the location information of the second object in the map storage unit;
The sensing unit is a lidar sensor, and includes a laser transmitter, a laser receiver, and a sensing data analyzer,
The sensed object property information
A signal transmitted by the laser transmitter is reflected from the object and includes an intensity of reflection of the signal received by the laser receiver,
The control unit divides the characteristic information of the object into a first category made of concrete or opaque material, a second category made of translucent glass or translucent acrylic, a third category made of transparent glass or transparent acrylic, using the reflection intensity. ; And
The control unit further comprises the step of reducing the moving speed when the property information of the object disposed in the advancing direction belongs to the second category or the third category, creating a map to which the property of the object is applied.
제8항에 있어서,
상기 센싱하는 단계는
상기 레이저 송신부가 신호를 송신하는 단계;
상기 레이저 수신부가 상기 제1객체에서 반사된 신호를 수신하는 단계;
상기 레이저 수신부가 상기 제1객체 후면에 배치된 제3객체에서 반사된 신호를 수신하는 단계; 및
상기 로봇의 센싱 데이터 분석부가 상기 반사된 신호의 강도 및 상기 제1객체와 상기 제3객체의 위치 정보를 상기 제어부에 전달하는 단계를 포함하는, 객체의 특성이 적용된 맵을 작성하는 방법.
The method of claim 8,
The sensing step
Transmitting, by the laser transmitter, a signal;
Receiving, by the laser receiver, a signal reflected from the first object;
Receiving, by the laser receiver, a signal reflected from a third object disposed behind the first object; And
And transmitting, by the sensing data analysis unit of the robot, the intensity of the reflected signal and the position information of the first object and the third object to the control unit.
제9항에 있어서,
상기 센싱부가 유리를 투과하여 유리 뒷편에 배치된 벽으로부터 반사된 제1신호 및 상기 유리를 일부 투과하지 못한 제2신호를 수신하는 단계;
상기 제어부가 상기 신호의 강도 및 신호의 거리를 보정하여 상기 맵 저장부에 상기 유리 및 상기 유리 뒷편의 벽을 맵에 저장하는 단계를 포함하는,
객체의 특성이 적용된 맵을 작성하는 방법.
The method of claim 9,
Receiving the first signal transmitted through the glass and reflected from a wall disposed behind the glass, and a second signal that does not partially pass through the glass;
And correcting, by the controller, the intensity of the signal and the distance of the signal to store the glass and the wall behind the glass in a map in the map storage.
How to create a map with the properties of an object applied.
제9항에 있어서,
상기 제어부가 상기 제1객체의 위치 정보 및 특성 정보를 맵 저장부에 저장하는 단계는
상기 제어부가 상기 제1객체의 상기 신호의 강도가 포함된 범주에 따라 구별하여 상기 제1객체의 정보를 맵 저장부에 저장하는 단계를 포함하는, 객체의 특성이 적용된 맵을 작성하는 방법.
The method of claim 9,
The storing of the location information and the characteristic information of the first object by the control unit in the map storage unit
And storing, by the controller, information of the first object in a map storage unit according to a category including a strength of the signal of the first object.
제8항에 있어서,
상기 로봇의 인터페이스부가 상기 맵 저장부에 저장된 제1객체 및 제2객체를 상이하게 표시하는 단계를 더 포함하는, 객체의 특성이 적용된 맵을 작성하는 방법.
The method of claim 8,
And displaying the first object and the second object differently stored in the map storage unit by the interface unit of the robot.
제8항에 있어서,
상기 제어부는 상기 맵 저장부에 센싱되지 않은 가상의 객체에 대한 정보를 저장하는 단계를 더 포함하는, 객체의 특성이 적용된 맵을 작성하는 방법.
The method of claim 8,
The control unit further comprises the step of storing information about the virtual object is not sensed in the map storage unit, creating a map to which the characteristics of the object is applied.
제8항에 있어서,
상기 로봇의 기능부가 청소를 수행하는 기능인 경우, 상기 제2범주 또는 상기 제3범주에 속하는 객체 근처에서 상기 기능부는 물걸레 기능 수행에서 물걸레의 회전 속도를 줄이거나, 월 팔로잉 청소 기능에서 상기 제2범주 또는 상기 제3범주에 속하는 객체와의 거리를 멀리하는 단계를 더 포함하는, 객체의 특성이 적용된 맵을 작성하는 방법.
The method of claim 8,
When the functional unit of the robot is a function of performing cleaning, the function unit reduces the rotational speed of the mop in performing the mop function near the object belonging to the second category or the third category, or the second in the wall following cleaning function. Further comprising a distance from a category or an object belonging to the third category.
제8항에 있어서,
상기 로봇의 제어부는 상기 맵 저장부에 저장된 객체의 특성 정보에 따라 상기 범주를 재조정하는 단계를 더 포함하는, 객체의 특성이 적용된 맵을 작성하는 방법.
The method of claim 8,
The control unit of the robot further comprises the step of re-adjusting the category according to the characteristic information of the object stored in the map storage unit, creating a map to which the characteristics of the object is applied.
KR1020190097430A 2019-08-09 2019-08-09 Method of drawing map applied by object feature and robot implementing thereof KR102054301B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190097430A KR102054301B1 (en) 2019-08-09 2019-08-09 Method of drawing map applied by object feature and robot implementing thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190097430A KR102054301B1 (en) 2019-08-09 2019-08-09 Method of drawing map applied by object feature and robot implementing thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020170022239A Division KR20180096059A (en) 2017-02-20 2017-02-20 Method of drawing map applied by object feature and robot implementing thereof

Publications (2)

Publication Number Publication Date
KR20190096897A KR20190096897A (en) 2019-08-20
KR102054301B1 true KR102054301B1 (en) 2020-01-22

Family

ID=67807727

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190097430A KR102054301B1 (en) 2019-08-09 2019-08-09 Method of drawing map applied by object feature and robot implementing thereof

Country Status (1)

Country Link
KR (1) KR102054301B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210069984A (en) * 2019-12-04 2021-06-14 삼성전자주식회사 Electronic apparatus and method for controlling thereof
KR102451757B1 (en) * 2021-03-10 2022-10-11 한국과학기술연구원 System and method for calculating degree of messiness of space based on characterstics of product in the space
CN116700236A (en) * 2022-02-28 2023-09-05 追觅创新科技(苏州)有限公司 Map generation method for self-mobile device, self-mobile device and storage medium
KR102583669B1 (en) * 2022-10-04 2023-09-26 한국전기연구원 Method for Marker Recognition and Pose Estimation of Mobile Robot and Apparatus Using the Same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031884A (en) 2007-07-25 2009-02-12 Toyota Motor Corp Autonomous mobile body, map information creation method in autonomous mobile body and moving route specification method in autonomous mobile body

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101985188B1 (en) * 2012-09-20 2019-06-04 엘지전자 주식회사 Moving robot and driving method for the moving robot
US9868211B2 (en) * 2015-04-09 2018-01-16 Irobot Corporation Restricting movement of a mobile robot

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031884A (en) 2007-07-25 2009-02-12 Toyota Motor Corp Autonomous mobile body, map information creation method in autonomous mobile body and moving route specification method in autonomous mobile body

Also Published As

Publication number Publication date
KR20190096897A (en) 2019-08-20

Similar Documents

Publication Publication Date Title
KR102054301B1 (en) Method of drawing map applied by object feature and robot implementing thereof
KR20180096059A (en) Method of drawing map applied by object feature and robot implementing thereof
KR102012550B1 (en) Method of identifying unexpected obstacle and robot implementing thereof
US20240094353A1 (en) Lidar system, apparatus communicating with the lidar system, and apparatus located in a field of view (fov) of the lidar system
US7598484B2 (en) Photoelectric sensor for securing the safety of a work area
US11524578B2 (en) Control method and control device for vehicle display device
CN109747643A (en) A kind of information fusion method of intelligent vehicle sensory perceptual system
US20110102149A1 (en) System and method for operating an rfid system with head tracking
KR102350533B1 (en) Method of configuring position based on vision information and robot implementing thereof
KR102012549B1 (en) Method of drawing map by identifying moving object and robot implementing thereof
JP2018508064A (en) Signs for vehicle identification systems
KR20130026432A (en) Optical touch screen with reflectors
CN106956267A (en) Robot arm barrier-avoiding method and system
JP5741088B2 (en) Position detection system and projection display system
JP2007514144A (en) Proximity detector
JP2018106695A (en) Method of operating autonomously traveling transfer vehicle
KR102608471B1 (en) Method and apparatus for eye tracking
KR102322854B1 (en) Apparatus and method for detecting moving object using ultrasonic sensor, and alarming system thereof
CN106080136B (en) Incident light intensity control method and device
US10475309B1 (en) Operation method of smart warning device for security
KR102329674B1 (en) Method of configuring position based on identification of fixed object and moving object and robot implementing thereof
CN107843887A (en) Position feedback sense for automated vehicle laser radar
SE536984C2 (en) System and method for displaying information on a window pane a vehicle with a mirror mounted outside the pane
JP6475055B2 (en) Detection device, detection method, and program
KR102617647B1 (en) Apparatus for alarming traffic situation in three-way intersection

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant