KR20180136294A - Method of sensing depth of object applying external light and and device implementing thereof - Google Patents

Method of sensing depth of object applying external light and and device implementing thereof Download PDF

Info

Publication number
KR20180136294A
KR20180136294A KR1020170075055A KR20170075055A KR20180136294A KR 20180136294 A KR20180136294 A KR 20180136294A KR 1020170075055 A KR1020170075055 A KR 1020170075055A KR 20170075055 A KR20170075055 A KR 20170075055A KR 20180136294 A KR20180136294 A KR 20180136294A
Authority
KR
South Korea
Prior art keywords
depth
information
unit
external light
sensing module
Prior art date
Application number
KR1020170075055A
Other languages
Korean (ko)
Inventor
이창현
손병곤
심정민
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020170075055A priority Critical patent/KR20180136294A/en
Priority to PCT/KR2018/006113 priority patent/WO2018230864A2/en
Priority to US16/622,202 priority patent/US11498228B2/en
Publication of KR20180136294A publication Critical patent/KR20180136294A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Manipulator (AREA)

Abstract

The present invention relates to a method for sensing a depth of an object by applying an external light which corrects distortion of information in which a depth is sensed by a strong external light, and a device realizing the same. According to an embodiment of the present invention, the method for sensing a depth of an object by applying an external light comprises the steps of: storing, in a storage unit, first depth information of an object sensed at a first point by a depth camera unit of a depth sensing module; storing, in the storage unit, second depth information of the object sensed at a second point by the depth camera unit; comparing the generated first depth information with the generated second depth information by a sensing data filtering unit of the depth sensing module so as to identify a filtering area in the second depth information; and adjusting a depth value of the filtering area from the second depth information by a control unit of the depth sensing module.

Description

외부광을 반영하여 객체의 뎁스를 센싱하는 방법 및 이를 구현하는 장치{METHOD OF SENSING DEPTH OF OBJECT APPLYING EXTERNAL LIGHT AND AND DEVICE IMPLEMENTING THEREOF}FIELD OF THE INVENTION [0001] The present invention relates to a method of sensing the depth of an object by reflecting external light and a device implementing the same.

본 발명은 외부광을 반영하여 객체의 뎁스를 센싱하는 방법 및 이를 구현하는 장치에 관한 기술이다.The present invention relates to a method of sensing the depth of an object by reflecting external light and an apparatus for implementing the method.

공항, 학교, 관공서, 호텔, 사무실, 공장, 체육관, 공연장과 같은 문화시설 등 인적, 물적 교류가 활발하게 발생하는 공간에서 로봇이 동작하기 위해서는 공간을 지속적으로 센싱하여 사물, 사람 등의 객체들을 회피하며 이동하는 것이 필요하다. 이 과정에서 로봇은 주행 과정에서 센싱하는 다양한 정보들에 기반하여 주행 경로를 설정할 수 있는데, 로봇이 주행할 공간을 비추는 외부의 광(조명, 햇빛 등)에 따라 로봇이 사물을 센싱함에 있어 영향을 받을 수 있다. In order for robots to operate in spaces where human and material exchanges are active, such as airports, schools, government offices, hotels, offices, factories, gymnasiums, and cultural facilities such as concert halls, It is necessary to move. In this process, the robot can set the traveling route based on various information sensed during the traveling process. The robot influences the sensing of the object according to the external light (illumination, sunlight, etc.) Can receive.

특히, 뎁스 정보를 취득하는 뎁스 센싱 모듈 또는 이러한 모듈이 탑재되는 뎁스 센싱 장치는 외부의 사물과의 거리를 3차원 영상 정보로 제공하는데, 이 과정에서 강한 조명 또는 햇빛과 같은 외부광의 영향을 받을 수 있다. 특히 사물이 외부광을 반사하는 경우 외부의 사물과의 거리가 실제보다 멀리 혹은 가까이 센싱되는 문제가 발생한다. Particularly, a depth sensing module for acquiring depth information or a depth sensing device on which such a module is mounted provides a distance to an external object as three-dimensional image information. In this process, strong light or an external light such as sunlight have. In particular, when an object reflects external light, a problem arises that the distance from the object to the outside is farther or closer to the actual distance.

이는 특히 공항, 학교, 관공서, 호텔, 사무실, 공장, 체육관, 공연장과 같은 문화시설 등 인적, 물적 교류가 활발하게 발생하는 공간에서 자주 발생할 수 있는 문제인데, 이러한 공간은 외부의 빛을 내부로 유입시키는 창이 크거나 내부 조명의 밝기가 강한 경우이다. 따라서, 이러한 문제점을 해결하기 위해, 본 명세서에서는 사물의 뎁스를 센싱하는 과정에서 외부광의 상태를 반영하는 방안을 제시하고자 한다.This is a problem that can often occur in spaces where human and material exchanges are active, such as airports, schools, government offices, hotels, offices, factories, gymnasiums, and cultural facilities such as concert halls. Or the brightness of the internal illumination is high. Accordingly, in order to solve such a problem, the present invention proposes a method of reflecting the state of external light in the process of sensing the depth of objects.

본 명세서에서는 전술한 문제점을 해결하기 위한 것으로, 강한 외부광으로 인한 뎁스 센싱된 정보의 왜곡을 보정하는 방법 및 장치를 제공하고자 한다.SUMMARY OF THE INVENTION In order to solve the above problems, the present invention provides a method and apparatus for correcting distortion of depth-sensitive information due to strong external light.

또한, 본 명세서에서는 강한 외부광이 발생할 수 있는 공간적, 시간적 정보를 이용하여 뎁스 센싱 정보의 정확도를 높이는 방법 및 장치를 제공하고자 한다.Also, in this specification, a method and an apparatus for enhancing the accuracy of depth sensing information using spatial and temporal information capable of generating strong external light are provided.

뿐만 아니라, 본 명세서에서는 전술한 뎁스 센싱 정보의 정확도를 높여 로봇이 안전하게 이동할 수 있는 방법 및 장치를 제공하고자 한다.In addition, the present invention aims at providing a method and an apparatus for safely moving a robot by raising the accuracy of the above-described depth sensing information.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention which are not mentioned can be understood by the following description and more clearly understood by the embodiments of the present invention. It will also be readily apparent that the objects and advantages of the invention may be realized and attained by means of the instrumentalities and combinations particularly pointed out in the appended claims.

본 발명의 일 실시예에 의한 외부광을 반영하여 객체의 뎁스를 센싱하는 방법은 뎁스 센싱 모듈의 뎁스 카메라부가 제1시점에서 센싱한 객체의 제1뎁스 정보를 저장부에 저장하는 단계, 뎁스 카메라부가 제2시점에서 센싱한 객체의 제2뎁스 정보를 저장부에 저장하는 단계, 뎁스 센싱 모듈의 센싱 데이터 필터링부가 생성된 제1뎁스 정보 및 제2뎁스 정보를 비교하여 제2뎁스 정보에서 필터링할 영역을 식별하는 단계, 및 뎁스 센싱 모듈의 제어부가 제2뎁스 정보에서 필터링 영역의 뎁스 값을 조정하는 단계를 포함한다.A method of sensing depth of an object reflecting external light according to an exemplary embodiment of the present invention includes storing a first depth information of an object sensed at a first viewpoint of a depth camera module of a depth sensing module in a storage unit, Storing the second depth information of the object sensed at the second time point in the storage unit, comparing the first depth information and the second depth information generated by the sensing data filtering unit of the depth sensing module, and filtering the second depth information from the second depth information And adjusting the depth value of the filtering region in the second depth information by the control unit of the depth sensing module.

본 발명의 다른 실시예에 의한 외부광을 반영하여 객체의 뎁스를 센싱하는 뎁스 센싱 모듈은 뎁스 정보를 저장하는 저장부, 제1시점에서 객체의 제1뎁스 정보 및 제1시점과 시간적으로 선행하거나 또는 후행하는 제2시점에서 객체의 제2뎁스 정보를 생성하는 뎁스 카메라부, 생성된 제1뎁스 정보 및 제2뎁스 정보를 비교하여 제2뎁스 정보에서 필터링할 영역을 식별하는 센싱 데이터 필터링부, 및 제2뎁스 정보에서 필터링 영역의 뎁스 값을 변경하거나 또는 제2뎁스 정보를 저장부에서 제거하는 제어부를 포함한다.The depth sensing module for sensing the depth of an object in accordance with another embodiment of the present invention includes a storage unit for storing depth information, a first depth information and a first depth information of the object at a first point in time, A depth camera unit for generating second depth information of the object at a following second viewpoint, a sensing data filtering unit for comparing the generated first depth information and the generated second depth information to identify an area to be filtered in the second depth information, And a control unit for changing the depth value of the filtering area in the second depth information or removing the second depth information from the storage unit.

본 발명의 또다른 실시예에 의한 외부광을 반영하여 객체의 뎁스를 센싱하여 이동하는 로봇은 뎁스 정보를 저장하는 저장부와, 제1시점에서 객체의 제1뎁스 정보 및 제1시점과 시간적으로 선행하거나 또는 후행하는 제2시점에서 객체의 제2뎁스 정보를 생성하는 뎁스 카메라부와 생성된 제1뎁스 정보 및 제2뎁스 정보를 비교하여 제2뎁스 정보에서 필터링할 영역을 식별하는 센싱 데이터 필터링부와 제2뎁스 정보에서 필터링 영역의 뎁스 값을 변경하거나 또는 제2뎁스 정보를 저장부에서 제거하는 제어부를 포함하는 뎁스 센싱 모듈, 외부에 배치된 객체를 센싱하는 객체 센싱 모듈, 로봇을 이동시키는 이동부, 및 뎁스 센싱 모듈 및 객체 센싱 모듈의 센싱된 결과에 기반하여 로봇 주변의 객체를 확인하여 로봇의 이동 경로를 제어하는 로봇 제어부를 포함한다.A robot for sensing depth of an object reflecting external light according to another embodiment of the present invention includes a storage unit for storing depth information, a storage unit for storing depth information of the object at a first time point, A depth camera unit for generating second depth information of an object at a second time point, which is a preceding or succeeding point, with the first depth information and the second depth information generated by the depth camera unit to identify a region to be filtered from the second depth information, A depth sensing module for changing the depth value of the filtering area or removing the second depth information from the storage part in the second depth information, an object sensing module for sensing an object disposed outside, And a robot control unit for controlling the movement path of the robot based on the sensed result of the depth sensing module and the object sensing module, The.

본 발명의 실시예들을 적용할 경우, 뎁스 카메라부(110)가 실외에서 사용하거나 햇빛 또는 조명이 많이 유입되는 공간에서 사용되거나 혹은 햇빛이 반사되는 환경에서 뎁스 값을 왜곡하여 센싱하는 경우에 이를 필터링하여 정상적인 뎁스 정보를 산출할 수 있다. When the embodiments of the present invention are applied, in the case where the depth camera unit 110 is used outdoors or in a space where a lot of sunlight or light is introduced, or when the depth value is distorted and sensed in an environment where sunlight is reflected, So that normal depth information can be calculated.

또한, 본 발명의 실시예들을 적용할 경우, 현재 위치와 상황에 따라 조명이나 햇빛 등 외부광의 발생 여부에 대한 정보에 기반하여 뎁스 값을 필터링할 것인지 여부를 확인하여 필터링 속도를 높일 수 있다.In addition, when the embodiments of the present invention are applied, it is possible to increase the filtering speed by checking whether the depth value is to be filtered based on information about whether external light such as illumination or sunlight is generated according to the current position and the situation.

본 발명의 효과는 전술한 효과에 한정되지 않으며, 본 발명의 당업자들은 본 발명의 구성에서 본 발명의 다양한 효과를 쉽게 도출할 수 있다. The effects of the present invention are not limited to the effects described above, and those skilled in the art of the present invention can easily derive the various effects of the present invention in the constitution of the present invention.

도 1은 본 발명의 일 실시예에 의한 뎁스 센싱 모듈의 구성을 보여주는 도면이다.
도 2 및 도 3은 본 발명의 일 실시예에 의한 뎁스 정보의 구성을 보여주는 도면이다.
도 4는 본 발명의 일 실시예에 의한 뎁스 센싱 모듈이 뎁스 정보를 처리하는 과정을 보여주는 도면이다.
도 5는 본 발명의 일 실시예에 의한 뎁스 센싱 모듈의 광정보 제공부의 구성을 보여주는 도면이다.
도 6은 본 발명의 일 실시예에 의한 맵 저장부의 구성을 보여주는 도면이다.
도 7은 본 발명의 일 실시예에 의한 광원주기정보부 및 컨텍스트부의 구성을 보여주는 도면이다.
도 8은 본 발명의 일 실시예에 의한 로봇의 구성을 보여주는 도면이다.
도 9는 본 발명의 일 실시예에 의한 뎁스 센싱 과정을 보여주는 도면이다.
도 10은 본 발명의 일 실시예에 의한 뎁스 정보를 뎁스 카메라부가 생성하여 이를 필터링하는 과정을 보여주는 도면이다.
도 11 및 도 12는 본 발명의 일 실시예에 의한 뎁스 센싱 모듈이 외부광의 영향을 반영하여 객체의 뎁스 값을 센싱하는 과정을 보여주는 도면이다.
도 13은 본 발명의 일 실시예에 의한 뎁스 값을 변경하는 과정을 보여주는 도면이다.
도 14는 본 발명의 일 실시예에 의한 뎁스 정보를 새로이 생성하여 저장하는 실시예를 보여주는 도면이다.
도 15는 본 발명의 일 실시예에 의한 뎁스 값의 조정 과정을 보다 상세히 보여주는 도면이다.
도 16은 본 발명의 일 실시예에 의한 센싱 데이터 필터링부가 필터링 영역을 식별하는 과정을 보여주는 도면이다.
도 17은 본 발명의 일 실시예에 의한 로봇의 이동 과정에서 센싱된 외부광 정보들을 업데이트하는 과정을 보여주는 도면이다.
FIG. 1 is a block diagram of a depth sensing module according to an embodiment of the present invention. Referring to FIG.
FIG. 2 and FIG. 3 are diagrams showing a configuration of depth information according to an embodiment of the present invention.
4 is a diagram illustrating a process of processing depth information by a depth sensing module according to an exemplary embodiment of the present invention.
5 is a diagram illustrating a configuration of an optical information providing unit of a depth sensing module according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating a configuration of a map storage unit according to an embodiment of the present invention. Referring to FIG.
7 is a diagram illustrating a configuration of a light source period information unit and a context unit according to an embodiment of the present invention.
FIG. 8 is a view showing a configuration of a robot according to an embodiment of the present invention.
9 is a diagram illustrating a depth sensing process according to an embodiment of the present invention.
10 is a diagram illustrating a process of generating depth information according to an exemplary embodiment of the present invention and filtering the generated depth information.
11 and 12 are views illustrating a process of sensing a depth value of an object by reflecting the influence of external light in a depth sensing module according to an exemplary embodiment of the present invention.
13 is a flowchart illustrating a process of changing a depth value according to an exemplary embodiment of the present invention.
FIG. 14 is a diagram illustrating an example of newly generating and storing depth information according to an embodiment of the present invention.
FIG. 15 is a detailed diagram illustrating a process of adjusting a depth value according to an embodiment of the present invention. Referring to FIG.
16 is a diagram illustrating a process of identifying a filtering area by the filtering unit for sensing data according to an exemplary embodiment of the present invention.
FIG. 17 is a diagram illustrating a process of updating sensed external light information in a moving process of a robot according to an exemplary embodiment of the present invention. Referring to FIG.

이하, 도면을 참조하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings so that those skilled in the art can easily carry out the present invention. The present invention may be embodied in many different forms and is not limited to the embodiments described herein.

본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다. 또한, 본 발명의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다.In order to clearly illustrate the present invention, parts not related to the description are omitted, and the same or similar components are denoted by the same reference numerals throughout the specification. Further, some embodiments of the present invention will be described in detail with reference to exemplary drawings. In the drawings, like reference numerals are used to denote like elements throughout the drawings, even if they are shown on different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 다른 구성 요소가 "개재"되거나, 각 구성 요소가 다른 구성 요소를 통해 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In describing the components of the present invention, the terms first, second, A, B, (a), (b), and the like can be used. These terms are intended to distinguish the components from other components, and the terms do not limit the nature, order, order, or number of the components. When a component is described as being "connected", "coupled", or "connected" to another component, the component may be directly connected or connected to the other component, Quot; intervening "or that each component may be" connected, "" coupled, "or " connected" through other components.

또한, 본 발명을 구현함에 있어서 설명의 편의를 위하여 구성요소를 세분화하여 설명할 수 있으나, 이들 구성요소가 하나의 장치 또는 모듈 내에 구현될 수도 있고, 혹은 하나의 구성요소가 다수의 장치 또는 모듈들에 나뉘어져서 구현될 수도 있다.The present invention may be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. As shown in FIG.

이하, 본 명세서에서 뎁스 센싱 모듈은 모듈이 탑재된 장치, 예를 들어 로봇이 이동하는 공간에서 사물의 뎁스 영상 정보를 취득하여 사물의 거리를 산출하는 장치를 의미한다. 뎁스 센싱 모듈이 다른 장치에 탑재된 경우가 아니라 독립적인 장치로 존재할 경우 뎁스 센싱 장치라 지시될 수도 있다.In the following description, the depth sensing module refers to a device on which a module is mounted, for example, a device for acquiring depth image information of an object in a space where the robot moves and calculating the distance of the object. The depth sensing module may be referred to as a depth sensing device when it exists as an independent device instead of being mounted on another device.

한편, 본 명세서에서 뎁스 센싱 모듈이 결합하는 로봇은 특정한 목적(청소, 보안, 모니터링, 안내 등)을 가지거나 혹은 로봇이 이동하는 공간의 특성에 따른 기능을 제공하며 이동하는 장치를 포함한다. 따라서, 본 명세서에서의 로봇은 소정의 정보와 센서를 이용하여 이동할 수 있는 이동수단을 보유하며 소정의 기능을 제공하는 장치를 통칭한다. 센서는 전술한 뎁스 센싱 모듈 외에도 외부 사물의 존재 혹은 거리, 특성 등을 센싱하는 다양한 종류의 센서들을 의미한다.Meanwhile, in the present specification, the robot to which the depth sensing module is coupled includes a moving device having a specific purpose (cleaning, security, monitoring, guidance, etc.) or providing functions according to the characteristics of a space in which the robot moves. Therefore, the robot in this specification collectively refers to a device that has a moving means capable of moving using predetermined information and a sensor, and provides a predetermined function. In addition to the above-described depth sensing module, the sensor means various types of sensors that sense the presence, distance, and characteristics of an external object.

본 명세서에서 로봇은 맵을 보유하면서 이동할 수 있다. 맵은 공간에서 이동하지 않는 것으로 확인된 고정된 벽, 계단 등 고정 객체에 대한 정보를 의미한다. 또한, 주기적으로 배치되는 동적인 객체들에 대한 정보도 맵 상에 저장될 수 있다. 일 실시예로 로봇의 진행 방향을 기준으로 일정한 범위 내에 배치된 장애물들에 대한 정보도 맵 상에 저장될 수 있다. In this specification, a robot can move while holding a map. A map is information about a fixed object such as a fixed wall, a stair, or the like that has been confirmed not to move in space. In addition, information about dynamic objects that are placed periodically can also be stored on the map. In one embodiment, information about obstacles disposed within a certain range based on the traveling direction of the robot can also be stored on the map.

한편, 로봇은 맵 상에 햇빛, 조명 등과 같은 외부광에 대한 정보를 저장할 수 있다. 예를 들어 특정 시간 대, 혹은 특정 상황에서 햇빛과 같은 외부광이 강한 경우, 혹은 특정 시간에 특정 조명이 켜짐으로 인해 외부광이 발생하는 경우, 이에 대한 정보를 맵 상에 저장할 수 있다. 외부광에 대한 정보는 빛이 들어오는 방향, 빛의 세기, 시간, 혹은 주기 등에 대한 정보를 포함한다. 전술한 맵 상에 외부광의 정보를 저장하는 것은 로봇 또는 뎁스 센싱 모듈 모두에 적용될 수 있다. On the other hand, the robot can store information about external light such as sunlight, illumination, etc. on the map. For example, when external light such as sunlight is strong at a specific time or in a specific situation, or when external light is generated due to a specific lighting being turned on at a specific time, information on the external light can be stored on the map. The information about the external light includes information on the direction in which the light comes in, intensity of light, time, or cycle. Storing external light information on the above-described map can be applied to both the robot or the depth sensing module.

도 1은 본 발명의 일 실시예에 의한 뎁스 센싱 모듈의 구성을 보여주는 도면이다. 뎁스 센싱 모듈은 외부의 객체의 뎁스 정보를 1차적으로 생성하는 뎁스 카메라부(110), 그리고 외부광의 영향을 계산하여 1차적으로 생성된 뎁스 정보에서 필터링할 영역을 식별하는 센싱 데이터 필터링부(120), 뎁스 정보가 저장되는 저장부(130), 그리고 필터링할 영역에 이전 혹은 이후의 뎁스 정보를 적용하여 새로운 뎁스 정보를 생성하는 제어부(150)를 포함한다. FIG. 1 is a block diagram of a depth sensing module according to an embodiment of the present invention. Referring to FIG. The depth sensing module includes a depth camera 110 for primarily generating depth information of an external object and a sensing data filtering unit 120 for identifying an area to be filtered from the depth information that is generated primarily by calculating the influence of external light A storage unit 130 for storing depth information, and a controller 150 for generating new depth information by applying previous or subsequent depth information to a region to be filtered.

또한, 뎁스 센싱 모듈이 위치한 지점에서의 외부광의 특성 정보를 제공하는 광정보 제공부(140)를 더 포함할 수 있다. 광정보 제공부(140)는 뎁스 센싱 모듈(100)의 위치 또는 이동 속도 등을 반영하여 현재 위치 또는 진입하는 위치의 광정보를 제공할 수 있다. 추가적으로 외부광을 센싱하는 광센싱부(111)가 배치될 수 있다. 광센싱부(111)는 이동 과정에서 센싱한 광의 세기 혹은 그외 특성을 광정보 제공부(140)에 업데이트하거나 저장할 수 있다. The apparatus may further include an optical information providing unit 140 for providing information on characteristics of external light at a location where the depth sensing module is located. The optical information providing unit 140 may provide the optical information of the current position or the entering position by reflecting the position or the moving speed of the depth sensing module 100. In addition, an optical sensing unit 111 for sensing external light may be disposed. The optical sensing unit 111 may update or store the intensity or other characteristics of the light sensed during the movement in the optical information providing unit 140.

보다 상세히 살펴보면, 뎁스 카메라부(110)가 제1시점에서 객체의 제1뎁스 정보 및 제1시점과 시간적으로 선행하거나 또는 후행하는 제2시점에서 객체의 제2뎁스 정보를 생성하여 저장부(130)에 저장한다. In more detail, the depth camera unit 110 generates the first depth information of the object at a first point in time and the second depth information of the object at a second point in time preceding or following the point of time with respect to the first point, ).

그리고 센싱 데이터 필터링부(120)는 제1뎁스 정보 및 상기 제2뎁스 정보를 비교하여 제2뎁스 정보에서 필터링할 영역을 식별한다. 필터링 영역의 식별에 대해서는 후술한다. 그리고 제어부(150)는 제2뎁스 정보에서 필터링 영역의 뎁스 값을 변경하거나 또는 제2뎁스 정보를 저장부(130)에서 제거하여 뎁스 정보가 정확하게 산출될 수 있도록 한다. The sensing data filtering unit 120 compares the first depth information and the second depth information and identifies an area to be filtered from the second depth information. The identification of the filtering area will be described later. The controller 150 changes the depth value of the filtering area in the second depth information or removes the second depth information from the storage unit 130 so that the depth information can be accurately calculated.

도 1의 구성요소에서 뎁스 센싱 모듈이 단일한 장치가 아니라 다른 장치, 예를 들어 로봇 등에 결합한 장치인 경우 일부 구성요소들은 로봇에 구현될 수 있다. 예를 들어 광정보 제공부(140)는 뎁스 센싱 모듈(100)에 포함될 수도 있고 뎁스 센싱 모듈(100)이 결합한 다른 장치인 로봇에 포함될 수 있다. 후자의 경우 제어부(150)는 로봇으로부터 광정보와 위치정보를 제공받을 수 있으며 이를 다시 센싱 데이터 필터링부(120)에 제공하거나 혹은 뎁스 정보에서 광의 영향을 제거한 새로운 뎁스 정보를 생성하는데 이용할 수 있다. In the components of FIG. 1, some components may be implemented in a robot when the depth sensing module is a device other than a single device, for example, a robot or the like. For example, the optical information providing unit 140 may be included in the depth sensing module 100 or may be included in a robot that is another apparatus to which the depth sensing module 100 is connected. In the latter case, the controller 150 may receive optical information and position information from the robot, and may provide the sensing information to the sensing data filtering unit 120 or may use the depth information to generate new depth information from which the influence of light is removed.

본 발명의 실시예에서는 뎁스 센싱 모듈이 일정한 시간 동안 순차적으로 뎁스 정보를 큐(queue)와 같은 방식으로 저장부(130)에 저장하고, 이들 저장된 뎁스 정보들 중에서 외부광의 영향을 강하게 받은 뎁스 정보에 대해서는 이를 가비지(garbage) 값으로 판단하여 이를 사용하지 않는다. 이 과정에서 뎁스 센싱 모듈이 이동하는 속도, 예를 들어 뎁스 센싱 모듈의 이동 속도 또는 뎁스 센싱 모듈이 장착된 로봇의 이동 속도를 반영할 수 있다.In the embodiment of the present invention, the depth sensing module sequentially stores depth information in a storage unit 130 in the same manner as a queue for a predetermined period of time, and, among the stored depth information, depth information strongly influenced by external light It is judged as a garbage value and not used. In this process, the speed at which the depth sensing module moves, for example, the moving speed of the depth sensing module, or the moving speed of the robot equipped with the depth sensing module, can be reflected.

도 2 및 도 3은 본 발명의 일 실시예에 의한 뎁스 정보의 구성을 보여주는 도면이다. 뎁스 정보(10)는 하나의 프레임에서 촬영된 뎁스 영상의 뎁스 셀 별 뎁스 값들을 구분하여 저장한 것을 의미한다. 또한, 뎁스 정보(10)는 저장부(130)에 저장되며, 상이한 시점에 촬영된, 즉 다수의 시점의 프레임에 대응하여 저장된 뎁스 정보들이 저장부(130)에 다수 저장될 수 있다. FIG. 2 and FIG. 3 are diagrams showing a configuration of depth information according to an embodiment of the present invention. The depth information 10 indicates depth values of each depth cell of a depth image photographed in one frame. In addition, the depth information 10 is stored in the storage unit 130, and a plurality of pieces of depth information, which are photographed at different points in time, that is, corresponding to frames of a plurality of points of view, may be stored in the storage unit 130.

일 실시예로, 특정 시점에 촬영한 영상의 각 x-y 좌표의 뎁스값으로 구성될 수 있다. 예를 들어 뎁스 카메라부(110)가 특정 시점의 뎁스 영상, 즉 특정 시점의 프레임에 대응하여 가로로 max_x개, 세로로 max_y개로 분할된 뎁스 셀들에 대해 각각 뎁스 값을 산출할 수 있다. 일 실시예로 뎁스 영상에서 각 셀은 하나의 픽셀을 지시할 수 있다. 뎁스 셀(depth cell)은 픽셀 또는 이보다 더 큰 범위를 포함하여 하나의 뎁스 값이 산출되는 단위를 지시한다. 뎁스 셀의 크기는 뎁스 카메라부(110)가 산출하는 뎁스 영상의 해상도에 따라 증감할 수 있다. 뎁스 정보(10)의 상측의 숫자는 x 좌표를, 좌측의 숫자는 y좌표를 지시한다. In one embodiment, the depth value of each x-y coordinate of an image photographed at a specific point in time may be configured. For example, the depth camera 110 may calculate a depth value for a depth image at a specific time point, that is, a depth cell divided into max_x horizontally and max_y horizontally corresponding to a frame at a specific time point. In one embodiment, each cell in the depth image may indicate one pixel. A depth cell indicates a unit in which one depth value is calculated including a pixel or a larger range. The size of the depth cell can be increased or decreased according to the resolution of the depth image calculated by the depth camera unit 110. The number on the upper side of the depth information 10 indicates the x coordinate, and the number on the left indicates the y coordinate.

하나의 뎁스 셀은 하나의 뎁스 값을 가진다. 따라서, x, y 좌표 상으로 정의되는 하나의 뎁스 셀의 값은 다음과 같이 표시될 수 있다. One depth cell has one depth value. Therefore, the value of one depth cell defined on the x, y coordinates can be expressed as follows.

Depth Value : 61.3 (X:15, Y: 25) : Frame Number: 52Depth Value: 61.3 (X: 15, Y: 25): Frame Number: 52

프레임 넘버(Frame Number)는 하나의 뎁스 영상을 식별하는 식별 정보가 될 수 있다. 뎁스 값(Depth Value)은 특정 프레임의 X, Y로 지시되는 뎁스 셀의 뎁스 값을 제시한다. The frame number may be identification information for identifying one depth image. The depth value indicates a depth value of a depth cell indicated by X and Y of a specific frame.

도 3에 제시된 바와 같이, 뎁스 카메라부(110)가 생성하는 프레임 별 뎁스 영상의 뎁스 정보는 계속 변화할 수 있다. 일 실시예로, 뎁스 정보를 구성하는 특정 뎁스 셀의 뎁스 값은 계속 바뀔 수 있다. 일 실시예로, (x, y)가 1, 2인 뎁스 셀(15a, 15b, 15c)의 뎁스 값이 매 프레임 별로 변화할 수 있다. 물론 다른 뎁스 셀의 뎁스 값 역시 변화할 수 있다. 정리하면, 뎁스 정보는 뎁스 센싱 모듈(100)이 취득한 하나의 프레임, 즉 한 시점에서 촬영한 뎁스 이미지를 구성하는 뎁스 값들의 집합을 의미한다. As shown in FIG. 3, the depth information of the depth image for each frame generated by the depth camera unit 110 may continuously change. In one embodiment, the depth value of the specific depth cell constituting the depth information can be continuously changed. In one embodiment, the depth values of the depth cells 15a, 15b, and 15c having (x, y) 1 and 2 can be changed every frame. Of course, the depth value of another depth cell may also change. In summary, the depth information means a set of depth values constituting one frame acquired by the depth sensing module 100, that is, a depth image captured at one point in time.

도 3에 제시된 바와 같이, 첫번째 프레임의 뎁스 정보(11)와 두번째 프레임의 뎁스 정보(12)와 사이에서는 모든 뎁스 셀의 뎁스 값이 일괄적으로 1씩 증가하였다. 반면 두번째 프레임의 뎁스 정보(12)와 세번째 프레임의 뎁스 정보(13) 사이에는 (x, y)가 1, 2인 뎁스 셀의 뎁스 값이 큰 차이가 발생하였음을 알 수 있다. As shown in FIG. 3, the depth values of all depth cells are increased by 1 at a time between the depth information 11 of the first frame and the depth information 12 of the second frame. On the other hand, it can be seen that there is a large difference between the depth values of the depth cells of (x, y) 1 and 2 between the depth information 12 of the second frame and the depth information 13 of the third frame.

즉, 15a에서 557, 15b에서 558, 그리고 15c에서 795로 큰 폭의 차이가 있다. 다른 뎁스 셀의 뎁스 값은 세 개의 프레임에서 일률적으로 1씩 증가한 것이므로, 뎁스 센싱 모듈(100)의 제어부(150)는 15c의 뎁스 값은 외부광으로 인한 가비지 값으로 판단될 수 있다. That is, there is a large difference from 15a to 557, 15b to 558, and 15c to 795. Since the depth value of the other depth cell is uniformly increased by one in three frames, the controller 150 of the depth sensing module 100 can determine that the depth value of 15c is a garbage value due to external light.

센싱 데이터 필터링부(120)는 누적된 뎁스 정보들 중에서 뎁스 값의 변화가 미리 설정된 기준 보다 큰 경우 이를 분석하여 외부광의 영향으로 인한 가비지 값인 경우 뎁스 값을 시간적으로 이전 또는 이후의 프레임, 즉 시간적으로 이전 또는 이후의 뎁스 영상의 뎁스 정보에서 해당 셀의 뎁스 값을 추출하여 이를 변환시켜 외부광으로 인한 가비지 값을 제거하고 실제 객체들의 뎁스 값이 반영된 뎁스 정보를 산출할 수 있다. The sensing data filtering unit 120 analyzes the accumulated depth information when the depth value is larger than a preset reference, and if the garbage value is a garbage value due to the influence of external light, the sensing value data is temporally previous or later, It is possible to extract the depth value of the corresponding cell from the depth information of the previous or subsequent depth image and convert the extracted depth value to remove the garbage value due to the external light and calculate the depth information reflecting the depth value of the actual objects.

또한, 뎁스 값의 급격한 변화가 실제 객체이 갑자기 등장하여 뎁스값의 변화가 발생할 수 있으므로, 광정보 제공부(140)는 뎁스 값의 큰 변화가 가비지 값에 의한 것인지 여부를 판단하는데 필요한 정보를 제공하며, 이를 반영하여 센싱 데이터 필터링부(120)가 뎁스 셀의 뎁스 값의 변화를 필터링할 수 있다. Also, since a sudden change in the depth value may cause a sudden appearance of a real object, a change in the depth value may occur. Therefore, the optical information providing unit 140 provides information necessary for determining whether a large change in the depth value is due to the garbage value The sensing data filtering unit 120 may filter the variation of the depth value of the depth cell.

도 4는 본 발명의 일 실시예에 의한 뎁스 센싱 모듈이 뎁스 정보를 누적하여 저장하는 과정에서 뎁스 정보 내의 뎁스 값을 필터링하는 과정을 보여주는 도면이다. 도 4는 뎁스 센싱 모듈이 일정한 시간 동안 N 개의 뎁스 정보를 센싱하여 그 중에서 외부광의 영향으로 뎁스 정보에 오류가 있는 것을 식별하여 이를 보정하거나 제거하는 등의 작업을 수행할 수 있다. 4 is a diagram illustrating a process of filtering a depth value in depth information in a process of accumulating depth information in a depth sensing module according to an embodiment of the present invention. 4, the depth sensing module senses N depth information for a predetermined time, identifies an error in the depth information due to external light, and corrects or removes the depth information.

뎁스 센서인 뎁스 카메라부(110)는 N개의 뎁스 정보들(뎁스 데이터들)을 저장부에 저장한다(S21). 예를 들어 N은 1 이상의 자연수가 될 수 있다. 예를 들어 5개의 뎁스 정보들을 큐(queue)의 방식으로 저장부(130)에 저장할 수 있다. The depth camera unit 110, which is a depth sensor, stores N depth information (depth data) in a storage unit (S21). For example, N may be a natural number of 1 or more. For example, five pieces of depth information may be stored in the storage unit 130 in the form of a queue.

한편, 제어부(150)는 센싱 모듈의 현재 위치에 대응하는 외부광의 특성, 뎁스 센싱 모듈의 이동 속도 등 외부 환경 정보를 취득한다(S22). 제어부(150)는 외부 환경 정보는 광정보 제공부(140)를 통해 취득하거나 혹은 뎁스 센싱 모듈(100)이 결합한 다른 장치, 예를 들어 로봇으로부터 취득할 수 있다.Meanwhile, the controller 150 acquires the external environment information such as the characteristics of the external light corresponding to the current position of the sensing module and the moving speed of the depth sensing module (S22). The control unit 150 may acquire the external environment information through the optical information providing unit 140 or may acquire the external environment information from another device, for example, a robot, to which the depth sensing module 100 is coupled.

센싱 데이터 필터링부(120) 외부 환경 정보를 반영하여 N개의 뎁스 정보들에서 뎁스 값의 변화가 일정 범위 이상인 영역을 필터링 영역으로 식별한다(S23). 예를 들어, 센싱 데이터 필터링부(120)가 5개의 큐를 검사하여 뎁스 정보의 각 뎁스 셀 별로 비교하여 뎁스 값이 일정 거리(예를 들어 100 mm) 이상 차이가 발생할 경우 이를 가비지 값으로 판단하여 사용하지 않는다.The sensed data filtering unit 120 reflects the external environment information and identifies a region having a variation of the depth value in the N depth information as a filtering region (S23). For example, the sensing data filtering unit 120 checks five queues and compares the depth information of each depth cell of the depth information. If the depth value is greater than a predetermined distance (for example, 100 mm), the sensed data filtering unit 120 determines the garbage value Do not use.

또한, 이렇게 차이가 크게 발생한 영역들을 필터링 영역으로 식별한다. 전술한 기준이 되는 거리는 뎁스 센싱 모듈의 이동 속도와 뎁스 정보들이 생성된 시간 등을 고려하여 산출될 수 있다. 예를 들어, 뎁스 센싱 모듈이 장착된 로봇의 이동속도 500mm/s 이고 사람의 이동속도가 1000mm/s인 것으로 가정할 때, 1초에 1500mm의 거리 차이가 발생할 수 있다. 그런데 뎁스 카메라부(110)가 만약 33mm/s 주기로 뎁스 정보를 생성한다면, 이는 1초에 약 30번의 뎁스 정보를 생성하는 것을 의미한다. 왜냐하면 1500mm/30 = 약 50mm/frame 이기 때문이다. In addition, regions with large differences are identified as filtering regions. The reference distance may be calculated in consideration of the moving speed of the depth sensing module and the time at which the depth information is generated. For example, assuming that the moving speed of the robot equipped with the depth sensing module is 500 mm / s and the moving speed of the person is 1000 mm / s, a distance difference of 1500 mm per second may occur. However, if the depth camera unit 110 generates the depth information at a period of 33 mm / s, this means that about 30 depth information is generated per second. This is because 1500mm / 30 = about 50mm / frame.

따라서, 하나의 프레임의 뎁스 정보는 이전 프레임 혹은 이후 프레임의 뎁스 정보와 비교할 때, 50mm 이상의 차이가 발생하기가 어려우므로, 뎁스 값의 변화가 크게 발생할 경우, 센싱 데이터 필터링부(120)는 객체의 뎁스값이 아니라 외부광의 세기가 변화하여 뎁스 값이 변화한 것으로 판단할 수 있다. Therefore, when the depth information of one frame is compared with the depth information of the previous frame or the subsequent frame, it is difficult for the difference of 50 mm or more to be generated. Therefore, when the depth value changes significantly, the sensing data filtering unit 120 It can be determined that the depth value is changed by the intensity of the external light instead of the depth value.

또한, 보다 정확도를 높이기 위해 뎁스 센싱 모듈(100)이 위치한 공간이 햇빛 또는 조명의 영향을 많이 받는 공간인지를 제어부(150)가 파악하여 이를 센싱 데이터 필터링부(120)에게 제공할 수 있다. 이 경우, 뎁스 센싱 모듈(100) 또는 뎁스 센싱 모듈(100)이 장착된 로봇이 특정한 장소 및/또는 특정한 시간에 위치할 경우 외부광에 영향받은 뎁스 값을 필터링할 수 있으며, 이는 외부광의 영향을 뎁스 값에서 제거하여 로봇의 이동 과정에서 외부 장애물을 식별하도록 제어 및 운행함으로써 비효율적인 장애물 검출로 인한 로봇 이동의 지연(delay)를 없앨 수 있다.In order to increase the accuracy, the controller 150 can determine whether the space where the depth sensing module 100 is located is a space that is highly affected by sunlight or illumination, and provide the sensed data filtering unit 120 with the sensing result. In this case, when the robot equipped with the depth sensing module 100 or the depth sensing module 100 is located at a specific place and / or at a specific time, it is possible to filter depth values affected by external light, It is possible to eliminate the delay of the movement of the robot due to the ineffective obstacle detection by controlling and operating to identify the external obstacle in the moving process of the robot by removing it from the depth value.

이후 제어부(150)는 필터링 영역을 구성하는 뎁스 셀들의 뎁스 값을 저장부(130)에 저장된 다른 뎁스 정보를 이용하여 설정한다. Then, the controller 150 sets the depth values of the depth cells included in the filtering area using the other depth information stored in the storage unit 130.

도 5는 본 발명의 일 실시예에 의한 뎁스 센싱 모듈을 구성하거나 혹은 뎁스 센싱 모듈이 탑재된 로봇을 구성하는 광정보 제공부의 구성을 보여주는 도면이다. 광정보 제공부(140)는 뎁스 센싱 모듈(100)이 센싱한 뎁스 정보에서 가비지 값을 제거하기 위해 필요한 외부 환경 정보를 확인하기 위한 것으로 뎁스 센싱 모듈이 이동하는 공간에서 빛의 반사나 빛의 발산 등에 대한 정보를 제공한다. 또한 뎁스 센싱 모듈(100)은 이동 과정에서 센싱한 외부의 빛이 일정 크기 이상의 세기를 가지거나 외부의 빛이 주기적으로 센싱될 경우 광정보 제공부(140)에 외부광에 대한 정보를 업데이트할 수 있다.5 is a diagram illustrating a configuration of an optical information providing unit constituting a depth sensing module according to an embodiment of the present invention or a robot equipped with a depth sensing module. The optical information providing unit 140 is for confirming the external environment information necessary for removing the garbage value from the depth information sensed by the depth sensing module 100. In the space where the depth sensing module moves, And so on. Also, the depth sensing module 100 can update the information about the external light to the optical information providing unit 140 when the external light sensed in the moving process has an intensity of a certain magnitude or more or the external light is periodically sensed have.

주요 구성요소를 살펴보면, 뎁스 정보를 생성하는 공간의 고정 객체의 위치 및 외부광의 반사 또는 투과 정보가 저장된 맵 저장부(141), 외부광이 온오프하는 주기 정보가 저장된 광원주기정보부(145), 그리고 외부광이 온오프하는 컨텍스트가 저장된 컨텍스트부(146)로 구성된다. A map storage unit 141 in which reflection information or transmission information of external light is stored, a light source period information unit 145 in which period information in which external light is turned on and off is stored, And a context unit 146 in which a context in which external light is turned on and off is stored.

맵 저장부(141)는 뎁스 센싱 모듈(100)이 이동하는 공간의 벽이나 창문, 그리고 광원의 위치에 대한 정보를 저장한다. 특히, 공간의 벽 등은 빛의 반사정도에 대한 정보를 함께 저장하여 뎁스 센싱 모듈(100)이 반사된 빛의 세기를 반영하여 뎁스 정보를 처리할 수 있도록 한다. 광원의 위치는 추가적으로 광원의 빛의 세기, 예를 들어 조도, 광원의 색상 등이 포함될 수 있다. 공간에서 벽 사이에 공간이 있는 경우 이는 유리로 판단할 수 있다. 이들 유리의 빛 투과도에 대한 값도 맵 저장부(141)에 저장될 수 있다. The map storage unit 141 stores information on a wall, a window, and a position of a light source in a space where the depth sensing module 100 moves. Particularly, the space wall stores information about the degree of reflection of light, so that the depth sensing module 100 can process the depth information by reflecting the intensity of the reflected light. The position of the light source may additionally include intensity of the light source, for example, illumination, color of the light source, and the like. If there is a space between the walls and the walls, this can be judged to be free. Values for the light transmittance of these glasses can also be stored in the map storage unit 141. [

광원주기정보부(145)는 특정 광원이 온오프하는 주기에 대한 정보이다. 예를 들어, 광원은 매일, 하루종일 켜져있는 경우가 있다. 또한, 다른 광원의 경우, 오후 시간 혹은 저녁 시간에만 켜져있는 경우가 있다. 광원주기정보부(145)는 광원이 켜지고 꺼지는 주기에 대한 정보를 저장하여, 광원이 꺼진 경우에는 외부광의 영향이 없는 것으로 뎁스 센싱 모듈(100)이 판단할 수 있다.The light source period information unit 145 is information on a period during which a specific light source is turned on and off. For example, a light source may be turned on every day, all day. Also, in the case of other light sources, it may be turned on only in the afternoon or evening. The light source period information unit 145 stores information about a cycle of turning on and off the light source so that the depth sensing module 100 can determine that there is no influence of external light when the light source is turned off.

컨텍스트부(147)는 광원의 온오프하는 상황에 대한 컨텍스트(context) 정보 또는 창문으로 태양광이 들어오는 컨텍스트 정보 등 광원의 주기 정보에 포함되지 않는 컨텍스트 정보를 저장한다. 일 실시예로, 창문으로 태양광이 들어올 수 있는 컨텍스트로 계절이나 날씨와 연계되는 정보가 저장될 수 있다. 또한, 공간의 광원들이 특정한 조건에 따라 켜지거나 꺼지는 경우 이에 대한 컨텍스트 정보가 컨텍스트부(147)에 저장될 수 있다. 예를 들어 공항인 경우 특정한 비행 스케줄에 대응하여 켜지거나 꺼지는 광원의 온/오프 조건이 컨텍스트부(147)에 저장될 수 있다. 또는 특정한 날씨에 대응하여 켜지거나 꺼지는 광원의 온/오프 조건이 컨텍스트부(147)에 저장될 수 있다. The context unit 147 stores context information that is not included in the period information of the light source such as context information on the on / off state of the light source or context information on the window. In one embodiment, information associated with the season or weather can be stored in a context in which sunlight can enter the window. Also, when the light sources of the space are turned on or off according to a specific condition, context information on the light sources may be stored in the context unit 147. For example, in the case of an airport, on / off conditions of a light source to be turned on or off corresponding to a specific flight schedule may be stored in the context unit 147. Or the on / off condition of the light source that is turned on or off corresponding to the specific weather can be stored in the context unit 147. [

따라서, 뎁스 센싱 모듈(100)은 현재 이동하는 공간의 광원에 대한 정보와 이들 광원이 켜지거나 꺼지는 환경인지를 확인하고 이를 반영하여 뎁스 정보에서 가비지 값을 제거할 수 있다. Accordingly, the depth sensing module 100 can confirm the information about the light source of the currently moving space and the environment in which the light sources are turned on or off, and remove the garbage value from the depth information by reflecting the information.

도 6은 본 발명의 일 실시예에 의한 맵 저장부의 구성을 보여주는 도면이다. FIG. 6 is a diagram illustrating a configuration of a map storage unit according to an embodiment of the present invention. Referring to FIG.

맵 저장부(141a)는 일종의 비트맵과 같이 구성할 수 있다. 이미지 파일의 비트맵에서 각 비트가 하나의 단위 영역을 나타내도록 구성할 수 있다. 각 단위 영역은 좌측 하단을 (0, 0)으로, 우측 상단을 (19, 19)로 지시할 수 있다. 또한, 도 6의 141a은 20x20 구조의 데이터 구조를 가질 수 있다. 예를 들어, 각 위치에 대해 객체가 배치되는지 여부에 대한 정보를 포함할 수 있다. 일종의 행렬과 같이 정보를 배치하고, 고정 객체가 배치되는 경우에는 해당 행렬의 값을 미리 설정된 값으로 설정할 수 있다.The map storage unit 141a can be configured as a kind of bit map. It is possible to configure each bit in the bitmap of the image file to represent one unit area. Each unit area can point to the left bottom (0, 0) and the right top (19, 19). In addition, 141a in FIG. 6 may have a 20x20 data structure. For example, it may contain information about whether an object is placed for each location. When a fixed object is placed, the value of the corresponding matrix can be set to a predetermined value.

또한, 맵 저장부(141a)는 고정 객체들이 가지는 빛의 반사 혹은 투과 속성에 대한 특성 정보를 저장할 수 있는데, 객체에 대한 특성 정보는 범주로 분류하여 구분하여 맵 저장부(141a)에 저장될 수 있다. 도 6의 맵 저장부(141a)에서 검은 색으로 표시된 부분은 빛의 반사도(reflective)의 값이 10으로 빛의 반사도가 낮은 속성의 객체임을 보여준다. In addition, the map storage unit 141a may store characteristic information of light reflection or transmission properties of the fixed objects. The characteristic information about the objects may be classified into categories and stored in the map storage unit 141a have. In the map storage unit 141a of FIG. 6, a portion indicated by black indicates that the reflective value of the light is 10, which is an attribute object of low light reflectivity.

그 외 212로 지시되는 고정 객체는 빛의 반사도가 30으로 외부광을 30%로 반사함을 보여준다. 213a, 213b로 지시되는 고정 객체는 빛의 반사도가 70으로 외부광을 70%로 반사함을 보여준다. 고정 객체의 빛의 반사도에 대한 범주는 다양하게 설정될 수 있으며, 본 발명이 이들에 한정되는 것은 아니다. In addition, the fixed object indicated by 212 shows that the reflectance of light is 30, and the external light is reflected by 30%. The fixed object indicated by 213a and 213b shows that the reflectance of light is 70 and the external light is reflected by 70%. The category of the light reflectivity of the fixed object can be variously set, and the present invention is not limited thereto.

한편, 고정객체들 사이에 T와 숫자로 결합된 부분은 빛의 투과도를 보여준다. 예를 들어, 211a에서 지시하는 "T9"는 빛을 90% 이상 투과시키는 투명 재질의 고정객체, 예를 들어 투명한 유리창이 배치되는 것을 지시한다. 그 결과 태양이 떠오르는 시간 및 해당 방향에서 211a의 주변으로 뎁스 센싱 모듈(100)이 이동할 경우, 햇빛이 뎁스 정보의 산출에 영향을 미치는 것을 뎁스 센싱 모듈(100)이 확인할 수 있다. On the other hand, the portion of the fixed objects that are joined by T and the number shows the light transmission. For example, "T9 " indicated by 211a indicates that a transparent object, such as a transparent window, of a transparent material that transmits light at 90% or more is disposed. As a result, the depth sensing module 100 can confirm that the sunlight affects the calculation of the depth information when the depth sensing module 100 moves from the time when the sun rises and the vicinity of the direction 211a in the corresponding direction.

211b에서 지시하는 "T5"는 빛을 50% 투과시키는 반투명 재질의 고정객체, 예를 들어 반투명한 유리창이 배치되는 것을 의미한다. Quot; T5 "indicated by 211b means that a fixed object of semitransparent material, for example, translucent glass window, through which light is transmitted at 50% is disposed.

맵 저장부(141a)에 L1 또는 L3는 천장에서 빛이 들어올 수 있는 공간 또는 조명이 배치된 지점에 표시된다. L1 또는 L3와 같은 것은 천장의 창문 혹은 조명들을 그룹핑 지은 라벨링이 될 수 있으며, 일 실시예로 조명의 조도가 되거나 창문의 투과도에 의한 빛의 세기 혹은 특정한 범주의 조명들의 그룹명이 될 수 있다.In the map storage unit 141a, L1 or L3 is displayed in a space where light can enter from the ceiling or a point where the light is arranged. Such as L1 or L3, may be labels that group windows or lights in the ceiling, and may, in one embodiment, be illuminance of light or light intensity due to the transmission of a window or group name of a particular category of lights.

L1, L3 등이 천장의 창문을 통해 유입되는 햇빛의 세기 또는 조명의 조도를 나타낼 경우, 이들을 범주화시켜 나눌 수 있는데, 일 실시예로 1~5 까지 범주화 시킬 수 있으며, 도 6의 실시예는 "1"이라는 범주에 해당하는 세기의 외부광(L1)과 "3"이라는 범주에 해당하는 세기의 외부광(L3)이 표시된 것으로 볼 수 있다.  L1, L3, and the like represent the intensity of the sunlight or illumination of the light entering through the windows of the ceiling, they can be categorized and categorized, which can be categorized from 1 to 5 in one embodiment, (L1) of the intensity corresponding to the category "1" and the external light (L3) of the intensity corresponding to the category "3" are displayed.

일 실시예로 천장이 투명한 유리인 경우에는 빛의 투과도가 높은 것으로 그룹핑할 수 있고, 천장이 불투명한 유리인 경우에는 빛의 투과도가 낮은 것으로 그룹핑할 수 있다.In an embodiment, when the ceiling is transparent glass, it can be grouped into a group having a high light transmittance, and when the ceiling is opaque glass, grouping can be performed with a low light transmittance.

또다른 실시예로, 외부광의 세기 또는 조명의 조도 외에도 조명들을 그룹핑 지어서 범주화시킬 수도 있다. 예를 들어, 동시에 켜지거나 꺼지는 조명들을 그룹핑하여 이들을 범주화 시켜서 L1, L2 와 같이 라벨링할 수 있다. In yet another embodiment, the lights may be grouped and categorized in addition to the intensity of external light or illumination illumination. For example, groups of lights that are turned on or off at the same time can be categorized and labeled as L1, L2.

L1, L3 등이 천장의 창문을 통해 유입되는 햇빛의 세기 또는 조명의 그룹을 나타내거나 조명의 조도를 나타내는 등 외부광의 특정한 정보를 제공하는 반면, 보다 상세한 외부광의 정보, 예를 들어, 햇빛이 비치는 시간이나 햇빛이 비치는 컨텍스트(날씨, 위도, 경도 등) 조명들이 켜지고 꺼지는 온오프 주기 혹은 온오프하는 컨텍스트(특정 공간에서 불이 켜지는 조건 등)에 대한 정보는 도 7의 광원주기정보부(145) 및 컨텍스트부(147)에 저장될 수 있다. L1, L3, etc. provide specific information of external light, such as representing the intensity of sunlight entering through the windows of a ceiling or a group of lights or indicating the illuminance of illumination, while more detailed external light information, e.g., The information on the on-off period or the on-off context (such as a lighting condition in a specific space) in which the contexts (weather, latitude, longitude, etc.) And the context part 147. [

도 6에서 바닥의 재질이 빛을 반사하는 정도에 대한 정보도 맵 저장부(141)에 저장될 수 있는데, 예를 들어, 하기의 표와 같이 맵 저장부(141a)의 특정한 영역 별로 바닥의 빛의 반사도에 대한 정보를 저장할 수 있다.6, information about the degree of reflection of light by the material of the floor may also be stored in the map storage unit 141. For example, as shown in the following table, Information about the degree of reflection of the light.

PositionPosition ReflectiveReflective (0, 0) ~ (19, 19)(0, 0) to (19, 19) Reflective 50Reflective 50

표 1에서는 (0, 0)을 좌하단 영역, (19, 19)를 우상단 영역으로 하는 바닥의 빛 반사가 "50"이라는 범주에 해당함을 보여준다. 이는 뎁스 센싱 모듈(100)이 센싱된 뎁스 값을 필터링하는 과정에서 바닥에서 빛이 반사될 수 있다는 정보를 반영할 수 있다. 이와 달리 공간을 세분화하여 표 2와 같이 바닥의 반사 정보를 제시할 수 있다. Table 1 shows that (0, 0) corresponds to the bottom left region, and (19, 19) to the top right region corresponds to the category "50". This may reflect information that light may be reflected from the floor in the process of filtering the depth value sensed by the depth sensing module 100. Alternatively, the spatial information may be segmented to provide floor reflection information as shown in Table 2.

PositionPosition ReflectiveReflective (0, 0) ~ (19, 10)(0, 0) to (19, 10) Reflective 50Reflective 50 (0, 11)~(19, 19)(0, 11) to (19, 19) Reflective 20Reflective 20

로봇 또는 뎁스 센싱 모듈은 표 2에서 첫번째 영역((0, 0) ~ (19, 10))으로 이동할 경우에는 반사도가 50이라는 정보를 반영하여 천장의 조명의 반사 정도가 50에 대응하는 범주에 속하는 공간에서 뎁스 정보를 필터링할 수 있다. 또한, 두번째 영역((0, 11)~(19, 19))으로 이동할 경우에는 반사도가 20이라는 정보를 반영하여 천장의 조명의 반사 정도가 20에 대응하는 범주에 속하는 공간에서 뎁스 정보를 필터링할 수 있다.When the robot or the depth sensing module moves from the first region ((0, 0) to (19, 10)) in Table 2, the reflection degree of the ceiling is reflected in the category of 50 The depth information can be filtered in space. When moving to the second area ((0, 11) to (19, 19)), the depth information is filtered in the space belonging to the category corresponding to the degree of reflection of the ceiling light by reflecting the information that the reflectivity is 20 .

도 7은 본 발명의 일 실시예에 의한 광원주기정보부 및 컨텍스트부의 구성을 보여주는 도면이다. 광원주기정보부(145a)는 도 6에서 그룹화시킨 외부광들, 즉 햇빛이 비치거나 조명들이 켜지는 주기에 대해 제시한다. L1이라는 외부광(햇빛 또는 조명 등)은 위치에 상관없이(POS 필드가 ALL) 월요일에서 금요일(Day 필드)까지 06:00~22:00 시간동안(Time 필드) 켜지도록 주기가 설정된다. 한편, L3로 그룹핑된 외부광(햇빛 또는 조명 등)은 토요일과 일요일에 정해진 시간(10:00~17:00) 동안 켜지도록 주기가 설정된다. 7 is a diagram illustrating a configuration of a light source period information unit and a context unit according to an embodiment of the present invention. The light source period information section 145a presents the external light grouped in Fig. 6, i.e., a period in which sunlight is illuminated or lights are turned on. L1 is set to be turned on for 6:00 to 22:00 hours (Time field) from Monday to Friday (Day field) regardless of the position (POS field is ALL). On the other hand, the external light (sunlight or illumination) grouped with L3 is set to be turned on for a predetermined time (10: 00-17: 00) on Saturday and Sunday.

요일이나 날짜 별로 시간이 정해진 경우는 조명에 해당할 수 있으며, 햇빛의 경우 일몰/일출 시간이 적용될 수 있다. 컨텍스트부(147a)는 광원주기에 추가하여 햇빛이 비치거나 조명이 켜지거나 또는 꺼지는 조건, 즉 컨텍스트 정보를 제시한다. 주로 조명에 적용되지만, 햇빛과 같이 날씨 정보를 결합하여 컨텍스트 정보를 구성할 수도 있다. If the time is set by day or by day, it may correspond to lighting, and in the case of sunlight, sunset / sunrise time may apply. The context part 147a presents, in addition to the light source cycle, a condition under which the sunlight is turned on, the light is turned on or off, that is, context information. It is mainly applied to lighting, but it can combine weather information such as sunlight to construct context information.

L1이라는 광원들 중에서 (7, 17)의 위치(도 6에서 15로 지시되는 위치)에 배치된 조명은 외부 날씨에 따라 꺼지거나 켜지도록 조정될 수 있다. 왜냐하면 도 6의 15의 L1 광원은 외부의 빛을 투과시키는 투명한 재질의 고정객체(211a)가 배치되어 있기 때문이다. 따라서, 147a에 제시된 바와 같이 "Sunny_Weather"에서 조명을 끄며(OFF), "Night / Rainy_weather" 상황에서 조명을 켜는(ON) 컨텍스트 정보가 저장될 수 있다. L3 광원들은 모두 해당 공간이 붐빌 경우(Crowded)에 켜지도록(ON) 설정될 수 있다. 그리고 토요일과 일요일에는 꺼지도록(OFF) 설정될 수 있다. The lights arranged at the positions (positions indicated by 15 in Fig. 6) of the light sources of Ll (7, 17) can be adjusted to be turned off or on according to the external weather. This is because the L1 light source of FIG. 6 is provided with a transparent object 211a of a transparent material for transmitting external light. Thus, context information can be stored that turns off the illumination in "Sunny_Weather" and turns on the illumination in the "Night / Rainy_weather" situation as shown in 147a. The L3 light sources may all be set to ON when the space is crowded. And OFF (OFF) on Saturdays and Sundays.

도 6 및 도 7의 정보들에 기반하여 뎁스 센싱 모듈(100) 또는 뎁스 센싱 모듈(100)이 탑재된 로봇이 이동하는 과정에서 빛에 의한 영향을 받는 구간을 지나갈 때, 로봇의 현재 위치와 시간을 맵 저장부(141)에 등록하고, 이후 로봇 또는 뎁스 센싱 모듈(100)이 햇빛이나 조명의 영향을 받는 구간을 누적하여 학습하고 동일 시간에 동일한 장소를 이동할 때, 햇빛 또는 조명의 영향을 제거하는 필터를 활성화 시켜서 외부광의 영향을 제거하여 정확한 뎁스 정보를 산출한다. 6 and 7, when a robot mounted with the depth sensing module 100 or the depth sensing module 100 moves through a section affected by light, the current position and time of the robot The robot or depth sensing module 100 accumulates and learns the sections affected by sunlight or illumination and removes the influence of sunlight or light when moving at the same place at the same time And the influence of the external light is removed to calculate the accurate depth information.

필터를 활성화 시킨다는 것은 도 1의 센싱 데이터 필터링부(120)가 뎁스 정보에서 가비지 값을 필터링하도록 하며, 일 실시예로 누적된 뎁스 정보에서 각 뎁스 셀들의 뎁스 값들을 비교하여 장애물인지 외부광에 의한 뎁스 값의 오류인지를 판단할 수 있다. 이 과정에서 누적된 뎁스 정보가 늘어날 경우 뎁스 값이 가비지 값인지에 대한 판단의 정확도를 높일 수 있는데, 이는 뎁스 정보를 확인하는데 있어 일종의 지연(delay)가 발생할 수 있다. Activation of the filter means that the sensing data filtering unit 120 of FIG. 1 filters the garbage value in the depth information, compares the depth values of the respective depth cells in the accumulated depth information according to an embodiment, It can be determined whether the depth value is an error. If the accumulated depth information increases in this process, it is possible to increase the accuracy of determining whether the depth value is a garbage value. This may cause a delay in confirming the depth information.

그러나, 뎁스 센싱 모듈(100) 또는 로봇의 이동 속도, 로봇의 장애물 대응 능력 등을 반영하여 로봇이 장애물을 판단하는데 있어 문제가 발생하지 않을 만큼의 지연 시간 내에 뎁스 정보에서 가비지 값을 필터링할 수 있도록 뎁스 센싱 모듈(100)을 구성할 수 있다. 이 과정에서 보다 빠른 필터링 효과를 위해 전술한 광정보 제공부(140)를 구성하는 정보들이 학습을 통해 업데이트 되어 필터링의 정확성을 높일 수 있다. However, in order to filter the garbage value in the depth information within a delay time that the robot does not cause a problem in judging the obstacle by reflecting the moving speed of the depth sensing module 100 or the robot, The depth sensing module 100 can be configured. In this process, the information constituting the optical information providing unit 140 may be updated through learning to enhance the accuracy of the filtering for a faster filtering effect.

도 8은 본 발명의 일 실시예에 의한 로봇의 구성을 보여주는 도면이다. 로봇(1000)은 앞서 살펴본 뎁스 센싱 모듈(100)을 포함한다. 또한 광정보 제공부(140)가 로봇(1000)을 구성하는데, 뎁스 센싱 모듈(100)로부터 독립적으로 로봇(1000)의 구성요소가 될 수 있다. 한편, 로봇(1000)이 이동하는데 있어 외부의 객체들을 센싱하는데 필요한 객체 센싱 모듈(190), 그리고 로봇(1000)을 이동시키는 이동부(300)와 특정한 기능을 수행하는 기능부(400), 그리고 통신부(500)가 제시된다. FIG. 8 is a view showing a configuration of a robot according to an embodiment of the present invention. The robot 1000 includes the above-described depth sensing module 100. The optical information providing unit 140 constitutes the robot 1000 and may be a component of the robot 1000 independently of the depth sensing module 100. Meanwhile, an object sensing module 190 for sensing external objects in the movement of the robot 1000, a moving unit 300 for moving the robot 1000, a function unit 400 for performing a specific function, The communication unit 500 is presented.

도 8은 로봇의 구성을 계층적으로 구성하고 있으나, 이는 로봇의 구성요소들을 논리적으로 나타낸 것에 의해서이며, 물리적 구성은 이와 다를 수 있다. 하나의 물리적 구성요소에 다수의 논리적 구성요소가 포함되거나, 다수의 물리적 구성요소가 하나의 논리적 구성요소를 구현할 수 있다. 또한, 반드시 도 8의 계층이 유지될 필요는 없다.  8 shows the configuration of the robot hierarchically, but this is due to the logical representation of the components of the robot, and the physical configuration may be different. A plurality of logical components may be included in one physical component or a plurality of physical components may be implemented in a single logical component. Also, the hierarchy of FIG. 8 does not necessarily have to be maintained.

객체 센싱 모듈(190)은 외부의 객체들을 센싱하여 센싱한 정보를 로봇 제어부(900)에게 제공한다. 일 실시예로 객체 센싱 모듈(190)은 로봇의 현재 위치에서 벽, 유리, 금속성 문 등 외부 객체들의 재질과 거리를 신호의 강도(intensity)와 반사된 시간(속도)로 산출하는 라이다(Lidar) 센싱부(191)를 포함할 수 있다. 또한, 객체 센싱 모듈(190)은 로봇의 외부 객체의 영상을 취득하는 비전 센싱부(192)를 더 포함할 수 있다. The object sensing module 190 senses external objects and provides the sensed information to the robot control unit 900. In one embodiment, the object sensing module 190 calculates the material and distance of external objects such as walls, glass, and metal doors at the current position of the robot in the intensity and reflected time (velocity) of the signal (Lidar ) Sensing unit 191. [0033] FIG. The object sensing module 190 may further include a vision sensing unit 192 for acquiring an image of an external object of the robot.

비전 센싱부(192)는 카메라를 포함할 수 있다. 비전 센싱부(192)는 로봇의 주변의 객체들의 이미지를 촬영할 수 있다. 특히, 로봇은 고정 객체와 같이 변화가 많지 않은 이미지와 이동 객체가 배치된 이미지를 구분하여 외부의 객체가 이동 객체인지를 식별할 수 있다. The vision sensing unit 192 may include a camera. The vision sensing unit 192 can take an image of the objects around the robot. In particular, the robot can identify whether an external object is a moving object by distinguishing an image in which the variation is not so much like a fixed object and an image in which the moving object is disposed.

또한, 추가적으로 객체 센싱 모듈(190)은 로봇(1000)으로부터 일정 거리 내에 배치된 객체들의 존재 여부를 센싱하는 초음파 센싱부(193)를 포함할 수 있다. 초음파 센싱부(193)는 로봇(1000)으로부터 일정 거리 내에 객체들이 존재하는지를 판단한 정보를 제공한다. In addition, the object sensing module 190 may include an ultrasonic sensor 193 for sensing the presence or absence of objects disposed within a predetermined distance from the robot 1000. The ultrasound sensing unit 193 provides information for determining whether objects exist within a certain distance from the robot 1000. [

그 외에도 열감지 센싱부, 초음파 센싱부 등을 일 실시예로 하는 보조 센싱부(194)가 다수 배치될 수 있다. 이들 보조 센싱부들은 맵을 생성하거나 외부 객체를 센싱하는데 필요한 보조적인 센싱 정보를 제공한다. 또한, 이들 보조 센싱부들 역시 로봇이 주행함에 있어 외부에 배치된 객체를 센싱하여 정보를 제공한다.In addition, a plurality of auxiliary sensing units 194 including a thermal sensing unit, an ultrasonic sensing unit, and the like may be disposed. These auxiliary sensing units provide auxiliary sensing information necessary to generate a map or to sense an external object. In addition, these auxiliary sensing units also sense objects disposed outside and provide information when the robot travels.

센싱 데이터 분석부(195)는 다수의 센싱부들이 센싱한 정보들을 분석하여 이를 로봇 제어부(900)에게 전달한다. 예를 들어 다수의 센싱부들에 의해 로봇의 주변에 배치된 객체가 감지될 경우, 해당 객체의 특성과 거리에 대한 정보를 각각의 센싱부가 제공할 수 있다. 센싱 데이터 분석부(195)는 이들의 값을 조합하여 산출하고 이를 로봇 제어부(900)에게 전달할 수 있다. The sensing data analysis unit 195 analyzes the information sensed by the plurality of sensing units and transmits the analyzed information to the robot control unit 900. For example, when an object disposed in the periphery of the robot is detected by a plurality of sensing units, each sensing unit can provide information about a characteristic and a distance of the object. The sensing data analyzer 195 may combine these values and transmit them to the robot controller 900.

로봇 제어부(900)는 센싱된 거리 정보를 뎁스 센싱 모듈(100)에 제공하여 뎁스 정보를 필터링 하는 과정에서 참조할 수 있도록 한다. 예를 들어, 5미터 이내에 사물이 존재하지 않는 것으로 센싱 데이터 분석부(195)가 로봇 제어부(900)에게 정보를 제공하고, 로봇 제어부(900)가 이러한 정보를 뎁스 센싱 모듈(100)에게 제공했는데, 뎁스 센싱 모듈(100)이 생성한 뎁스 정보에 5미터 이내의 뎁스 값이 센싱되면 뎁스 센싱 모듈(100)은 해당 뎁스 셀이 외부광에 의해 왜곡된 것인지 여부를 확인하여 필터링할 수 있다.The robot controller 900 provides the sensed distance information to the depth sensing module 100 so that it can be referred to in the process of filtering the depth information. For example, the sensing data analysis unit 195 provides information to the robot control unit 900 that the object does not exist within 5 meters, and the robot control unit 900 provides such information to the depth sensing module 100 The depth sensing module 100 can determine whether the depth cell is distorted by external light and filter the depth cell if the depth value within 5 meters is sensed in the depth information generated by the depth sensing module 100. [

이동부(300)는 바퀴와 같이 로봇(1000)을 이동시키는 수단으로, 로봇 제어부(900)의 제어에 따라 로봇(1000)을 이동시킨다. 이때, 로봇 제어부(900)는 맵 저장부(141)에 저장된 영역에서 로봇(1000)의 현재 위치를 확인하여 이동부(300)에 이동 신호를 제공할 수 있다. 로봇 제어부(900)는 맵 저장부(141)에 저장된 다양한 정보들을 이용하여 경로를 실시간으로 생성하거나 혹은 이동 과정에서 경로를 생성할 수 있다. The moving unit 300 is a means for moving the robot 1000 such as a wheel, and moves the robot 1000 under the control of the robot control unit 900. At this time, the robot control unit 900 can confirm the current position of the robot 1000 in the area stored in the map storage unit 141 and provide a movement signal to the movement unit 300. The robot controller 900 may generate a route in real time using various information stored in the map storage unit 141 or may generate a route in the movement process.

기능부(400)는 로봇의 특화된 기능을 제공하는 것을 의미한다. 예를 들어, 청소 로봇인 경우 기능부(400)는 청소에 필요한 구성요소를 포함한다. 안내 로봇인 경우 기능부(400)는 안내에 필요한 구성요소를 포함한다. 보안 로봇인 경우 기능부(400)는 보안에 필요한 구성요소를 포함한다. The function unit 400 means providing a specialized function of the robot. For example, in the case of a cleaning robot, the function unit 400 includes components necessary for cleaning. In the case of a guide robot, the function unit 400 includes components necessary for guidance. In case of a secure robot, the function unit 400 includes components necessary for security.

기능부(400)는 로봇이 제공하는 기능에 따라 다양한 구성요소를 포함할 수 있으며, 본 발명이 이에 한정되는 것은 아니다. 통신부(500)는 로봇이 취득한 정보를 외부의 서버 또는 다른 로봇들에게 전송하거나 혹은 전술한 서버 또는 다른 로봇으로부터 정보를 수신하는 기능을 제공한다. The functional unit 400 may include various components according to functions provided by the robot, but the present invention is not limited thereto. The communication unit 500 provides a function of transmitting the information acquired by the robot to an external server or other robots, or receiving information from the server or another robot described above.

특히, 통신부(500)는 현재 날씨에 대한 정보를 외부의 장치들로부터 수신하여 햇빛과 같은 강한 외부광이 발생하는 조건인지를 확인하여 이를 로봇 제어부(900)에게 제공하고 로봇 제어부(900)는 외부광의 발생 조건을 뎁스 센싱 모듈(100)에게 제공하여 뎁스 정보의 필터링에 적용할 수 있도록 한다. In particular, the communication unit 500 receives information about the current weather from external devices and confirms whether the condition is such that strong external light such as sunlight is generated, and provides the information to the robot control unit 900. The robot control unit 900 The light generation condition is provided to the depth sensing module 100 so that it can be applied to the filtering of the depth information.

로봇(1000)의 로봇 제어부(900)는 맵 저장부(200)의 맵을 생성하거나 업데이트할 수 있다. 또한, 로봇 제어부(900)는 주행 과정에서 뎁스 센싱 모듈(100)이 제공하는 센싱 정보와 객체 센싱 모듈(190)이 제공하는 센싱 정보를 취합하여 로봇의 이동 경로를 제어할 수 있다. 즉, 로봇 제어부(900)는 뎁스 센싱 모듈(100) 및 객체 센싱 모듈(190)의 센싱된 결과에 기반하여 로봇 주변의 객체를 확인하여 로봇(1000)의 이동 경로를 제어한다. The robot control unit 900 of the robot 1000 may generate or update a map of the map storage unit 200. [ In addition, the robot controller 900 can collect the sensing information provided by the depth sensing module 100 and the sensing information provided by the object sensing module 190 in the driving process, and control the movement path of the robot. That is, the robot controller 900 checks the object around the robot based on the sensed result of the depth sensing module 100 and the object sensing module 190, and controls the movement path of the robot 1000.

또한, 광정보 제공부(140)가 뎁스 센싱 모듈(100)과 독립하여 배치될 수 있으며, 이 과정에서 로봇 제어부(900)는 이동 과정에서 취득한 외부광의 위치 정보를 광정보 제공부(140)에 저장할 수 있다. 또한, 로봇의 이동 공간에 대한 맵을 생성하는 과정에서 맵 저장부(141)에 이동 공간의 벽 또는 바닥의 빛의 반사 또는 투과에 대한 속성이 변경된 것으로 확인되면 맵 저장부(141)의 고정 객체의 속성도 변경할 수 있다.In addition, the optical information providing unit 140 may be disposed independently of the depth sensing module 100. In this process, the robot control unit 900 transmits the position information of the external light obtained in the moving process to the optical information providing unit 140 Can be stored. If it is determined that the attribute of reflection or transmission of light on the wall or floor of the moving space is changed in the map storage unit 141 in the process of generating the map of the moving space of the robot, Can also be changed.

한편, 로봇 제어부(900)는 뎁스 센싱 모듈(100)이 생성한 뎁스 정보에 대응하는 영역에서 객체 센싱 모듈(190)이 센싱한 객체의 거리 정보를 뎁스 센싱 모듈(100)에게 제공할 수 있다. 뎁스 센싱 모듈(100)의 제어부(150)는 로봇 제어부(900)를 통해제공된 객체의 거리 정보가 뎁스 정보의 일부 또는 전부와 불일치하는 경우에 뎁스 정보에서 불일치하는 영역에 대한 정보를 센싱 데이터 필터링부(120)에게 제공하여 센싱 데이터 필터링부(120)가 필터링할 영역을 보다 정확하게 식별할 수 있도록 한다. The robot controller 900 may provide distance information of the object sensed by the object sensing module 190 to the depth sensing module 100 in an area corresponding to the depth information generated by the depth sensing module 100. [ When the distance information of the object provided through the robot control unit 900 is inconsistent with a part or all of the depth information, the control unit 150 of the depth sensing module 100 transmits information about an inconsistent region in the depth information to the sensing data filtering unit (120) to allow the sensing data filtering unit (120) to more accurately identify the area to be filtered.

도 9는 본 발명의 일 실시예에 의한 뎁스 센싱 과정을 보여주는 도면이다. 도 9는 전술한 광정보 제공부의 맵 저장부에 저장된 정보를 이용하여 로봇 또는 뎁스 센싱 모듈의 현재 위치가 햇빛의 영향을 받는 위치인지를 판단하고, 이에 따라 뎁스 센싱 모듈의 뎁스 카메라부가 촬영한 뎁스 정보에서 각 뎁스 셀들의 뎁스 값(입력 데이터)을 분석하여 필터링하는 과정을 보여준다.9 is a diagram illustrating a depth sensing process according to an embodiment of the present invention. 9 is a view for explaining a case where the current position of the robot or the depth sensing module is determined to be a position affected by sunlight using the information stored in the map storage unit of the optical information providing unit described above, (Input data) of each depth cell is analyzed and filtered.

뎁스 카메라부(110)는 센싱된 뎁스 값으로 구성되는 뎁스 정보를 생성하여 저장부(130)에 저장한다(S31). 그리고 로봇의 현재 위치와 시간이 외부광, 특히 햇빛이나 강한 조명의 영향을 받는 구간인지를 확인한다(S32). 이는 뎁스 센싱 모듈(100) 또는 로봇(1000)을 구성하는 광정보 제공부(140)에 저장된 정보를 이용하여 확인할 수 있다. 확인 결과 외부광의 영향을 받는 구간인 경우에는 저장부(130)에 저장된 가장 최근의 5 프레임의 뎁스 데이터들, 즉 뎁스 값으로 구성된 뎁스 정보를 큐에 저장한다(S33). The depth camera unit 110 generates depth information composed of the sensed depth values and stores the depth information in the storage unit 130 (S31). Then, it is checked whether the current position and time of the robot are outside light, in particular, a period influenced by sunlight or strong illumination (S32). This can be confirmed by using information stored in the depth sensing module 100 or the optical information providing unit 140 constituting the robot 1000. As a result of checking, in the case of the section affected by external light, depth information composed of the most recent five frames stored in the storage unit 130, i.e., depth values, is stored in the queue (S33).

전술한 5 프레임이란 현재 시점을 기준으로 이전의 5번의 시점에서 촬영된 뎁스 정보들을 의미한다. 그리고 이전 프레임의 각 뎁스 셀의 뎁스 값들과 현재 확인된 뎁스 정보에서의 각 뎁스 셀의 뎁스 값들과 비교하여 실제 데이터인지 가비지 값인지를 확인하여 필터링할 것인지를 판단한다. 가비지 값인 경우, 해당 뎁스 정보는 제외시키고 새로이 뎁스 정보를 센싱하여 저장하도록 S31 단계를 진행한다. 한편, 가비지 값이 아닌 경우 해당 뎁스 데이터를 사용한다(S35). The above-mentioned five frames means the depth information photographed at the previous five times based on the current time point. Then, it compares the depth values of each depth cell of the previous frame with the depth values of each depth cell in the currently confirmed depth information, and determines whether to check whether the data is actual data or garbage value and filter it. If it is a garbage value, the process proceeds to step S31 so that the depth information is excluded and new depth information is sensed and stored. On the other hand, if the value is not the garbage value, the corresponding depth data is used (S35).

도 9의 S34 과정에서 가비지 값인 것으로 판단되면, 가비지 값에 대응하는 뎁스 셀의 뎁스 값을 새로이 산출할 수 있다. 예를 들어, 이전 5개의 프레임에 대응하는 5개의 뎁스 정보에서 특정 위치인 뎁스 셀의 뎁스 값이 지속하여 1씩 감소하다가 갑자기 1000이 감소한 경우 이는 가비지 값으로 판단할 수 있다. 다만, 가비지 값을 버리고 새로이 뎁스 정보를 산출하도록 S31 단계를 진행할 수도 있고, 가비지 값을 보정하여 뎁스 정보를 산출할 수도 있다. 예를 들어 도 3의 15c에서 가비지 값으로 확인된 경우 해당 셀의 뎁스 값을 이전 프레임의 뎁스 정보들(11, 12)를 기반으로 559로 변환할 수 있다. If it is determined in step S34 of FIG. 9 that the value is the garbage value, the depth value of the depth cell corresponding to the garbage value can be newly calculated. For example, if the depth value of the depth cell which is a specific position in the five depth information corresponding to the previous five frames continues to decrease by one but suddenly decreases by 1000, it can be judged as the garbage value. However, step S31 may be performed to discard the garbage value and newly calculate the depth information, or the depth information may be calculated by correcting the garbage value. For example, if the garbage value is identified as 15c in FIG. 3, the depth value of the corresponding cell can be converted into 559 based on the depth information 11, 12 of the previous frame.

도 10은 본 발명의 일 실시예에 의한 뎁스 정보를 뎁스 카메라부가 생성하여 이를 필터링하는 과정을 보여주는 도면이다. 41 내지 43은 뎁스 센싱 모듈(100) 또는 로봇(1000)이 이동하는 전면에 배치된 사물들의 형상이며, 프레임 별 전면의 사물의 형상을 보여준다. 51 내지 53은 이들 41 내지 43에 대응하여 생성된 뎁스 정보의 일부를 보여준다. 10 is a diagram illustrating a process of generating depth information according to an exemplary embodiment of the present invention and filtering the generated depth information. 41 to 43 are shapes of objects disposed on the front surface of the depth sensing module 100 or the robot 1000, and show the shapes of objects on the front surface of each frame. 51 to 53 show a part of the depth information generated corresponding to these 41 to 43.

뎁스 정보는 41 내지 43을 뎁스 셀로 분할하여 각 뎁스 셀 별로 뎁스 값을 포함하는데, 51 내지 53은 이 중에서 특정한 뎁스 셀들(41p, 41q, 42p, 42q, 43p, 43q)에 대한 뎁스 값을 보여준다. 뎁스 정보는 가로 150, 세로 100 크기로 뎁스 셀을 나누었으며, 41p, 42p, 43p는 각각의 41, 42, 43에서의 좌표가 (30, 75) 이며, 41q, 42q, 43q는 각각의 41, 42, 43에서의 좌표가 (75, 25) 이다. The depth information includes a depth value for each depth cell by dividing 41 to 43 into depth cells. 51 to 53 show depth values for specific depth cells 41p, 41q, 42p, 42q, 43p, and 43q. 41p, 42p and 43p have the coordinates of (30, 75) at 41, 42 and 43, respectively, and 41q, 42q and 43q are 41, 42, and 43 are (75, 25).

전체 뎁스 정보의 구성은 도 2 및 도 3에서 살펴본 바와 같이 각 뎁스 셀 별로 뎁스 값이 저장될 수 있는데, 설명의 편의를 위하여 도 10에서는 특정 셀들의 뎁스 값만을 표시한다. As shown in FIG. 2 and FIG. 3, the depth information may be stored for each depth cell. For convenience of explanation, only depth values of specific cells are displayed in FIG.

51에서 41p 및 41q의 뎁스 값은 각각 1530및 3500으로 센싱된다. 52에서 42p 및 42q의 뎁스 값은 각각 1480 및 3450으로 센싱된다. 42에서 햇빛(50)의 일부분이 유입되지만 뎁스 센싱에 영향을 미치지 않은 상태이다. The depth values of 41p and 41q are sensed at 1530 and 3500, respectively. The depth values of 52 to 42p and 42q are sensed at 1480 and 3450, respectively. A portion of the sunlight 50 is introduced at 42, but the depth sensing is not affected.

그런데, 43에서 햇빛(50)이 전면에 등장하면서 53에 제시된 바와 같이 43p는 동일한 뎁스 셀(위치가 (30, 75)인 셀)의 뎁스 값인 1480과 비교할 때, 일정하게 50이 감소한 1430인데, 43q는 동일한 뎁스 셀(위치가 (75, 25)인 셀)의 뎁스 값인 3450과 비교할 때, 불규칙하게 0으로 센싱됨을 확인할 수 있다. 이는 뎁스 센싱 모듈이 센싱한 값이 햇빛(50)으로 인해 가비지 값이 입력됨을 의미한다. As shown in 53, when the sunlight 50 appears on the front face at 43, 43p is 1430 which is reduced by 50 by a constant value when compared with 1480 which is the depth value of the same depth cell (the cell whose position is (30, 75) 43q are irregularly sensed as 0 when compared with 3450 which is the depth value of the same depth cell (the cell whose position is (75, 25)). This means that the value sensed by the depth sensing module is input to the garbage value due to the sunlight (50).

따라서, 센싱 데이터 필터링부(120)는 뎁스 값들 중에서 53의 43q와 같이 특정한 값에서 큰 변화가 발생하는 값을 필터링하고 제어부(150)는 필터링된 뎁스 정보(53)를 제거하거나 혹은 이전 뎁스 정보(51, 52)를 참조하여 새로운 뎁스 값(3400)을 가지는 뎁스 정보(54)를 생성하여 저장할 수 있다. Accordingly, the sensing data filtering unit 120 may filter a value for which a significant change occurs at a specific value such as 43q of 53 among the depth values, and the controller 150 removes the filtered depth information 53 or the previous depth information The depth information 54 having the new depth value 3400 can be generated and stored by referring to the first depth value 51 and the second depth value 52.

또한, 이 과정에서 로봇(1000)의 객체 센싱 모듈(190)이 센싱한 값에 기반하여 큰 변화가 발생한 뎁스 값을 가비지 값으로 하여 필터링할 지 아니면 새로운 객체가 센싱된 것으로 할 지 제어부(150)가 결정할 수 있다. 예를 들어, 갑자기 사물이 다가오는 경우가 있으므로, 객체 센싱 모듈(190)이 전방에 객체가 가까이 있는 것으로 센싱한 경우에는 센싱 데이터 필터링부(120)는 해당 뎁스 값을 필터링하지 않고 그대로 사용할 수 있다. 또는, 정확성을 위해 뎁스 카메라부(110)가 다시 뎁스 정보를 생성할 수 있다. In this case, the control unit 150 determines whether to filter the depth value, which is generated based on the sensed value of the object sensing module 190 of the robot 1000, as a garbage value or a new object, Lt; / RTI > For example, when an object is suddenly approaching the object sensing module 190, the sensed data filtering unit 120 may use the depth value without filtering. Alternatively, the depth camera unit 110 may again generate the depth information for accuracy.

도 10에서 살펴본 바와 같이 뎁스 센싱 모듈(100)이 뎁스 정보를 분석하는 과정을 정리하면 다음과 같다. As shown in FIG. 10, the process of analyzing the depth information by the depth sensing module 100 is summarized as follows.

뎁스 카메라부(110) 앞에 아무 장애물도 존재하지 않음에도 햇빛의 영향을 받아 특정한 범위 내의 뎁스 값이 각 프레임의 뎁스 정보에서 뎁스 값이 프레임 간에 과도하게 변하여 특정 사물이 갑자기 센싱하거나 혹은 센싱한 사물이 사라지는 것으로 확인될 경우, 이러한 뎁스 정보를 필터링할 수 있다. Even if there is no obstacle in front of the depth camera unit 110, the depth value within a specific range under the influence of the sunlight changes in such a way that the depth value in each frame is excessively changed between frames, If it is confirmed to disappear, such depth information can be filtered.

예를 들어, 전방부의 400~1000mm 사이의 특정 뎁스 셀의 뎁스 값이 2~3 프레임의 뎁스 정보에서 연속하여 검출되었다가 값자기 0의 값이 검출되는 상황이 반복될 수 있다. 특히, 똑같은 값이 연속해서 2~3 프레임의 뎁스 정보로 들어오는 것은 아니고 200, 700, 400, 0, 1000 등과 같이 뎁스 값이 선형적이지 않고 크게 증가 혹은 감소하는 경우에는 사물의 갑작스러운 등장으로 인한 뎁스 센싱이 아닌 외부광의 영향으로 뎁스 값이 변화하는 것으로 뎁스 센싱 모듈(100)이 확인하고 해당 뎁스 값을 필터링할 수 있다. For example, a situation where a depth value of a specific depth cell between 400 and 1000 mm in the front part is successively detected in depth information of 2 to 3 frames and a value self zero is detected can be repeated. In particular, if the same value does not arrive continuously as a depth information of 2 or 3 frames, but if the depth value is not linearly increased or decreased such as 200, 700, 400, 0, 1000 or the like, The depth sensing module 100 can confirm that the depth value changes due to the influence of external light rather than the depth sensing, and can filter the corresponding depth value.

이 과정에서 사물이 실제로 전면에 배치되었는지를 확인하기 위해 객체 센싱 모듈(190)에서 센싱한 외부 객체들의 센싱 결과를 뎁스 센싱 모듈(100)이 참조할 수 있으며, 또한 광정보 제공부(140)에서 현재 위치에서의 외부광의 배치 또는 빛의 세기, 컨텍스트 정보 등을 추출하여 외부광이 존재할 수 있는 가능성에 기반하여 뎁스 값을 필터링할 수 있다. 또한, 광센싱부(111)가 외부의 광의 세기를 센싱하여 센싱한 광이 뎁스 센싱에 영향을 미치는 정도인 경우, 뎁스 값을 조정할 수 있다. In this process, the depth sensing module 100 can refer to the sensing result of the external objects sensed by the object sensing module 190 to check whether the object is actually disposed on the front surface, The depth value can be filtered on the basis of the possibility that the external light may exist by extracting the arrangement of the external light at the current position, the intensity of the light, and the context information. In addition, when the optical sensing unit 111 senses the intensity of external light and the sensed light has a degree that affects the depth sensing, the depth value can be adjusted.

도 10에서 맵 저장부(141)의 정보를 이용할 수 있는데, 도 6에서 특정한 공간의 벽의 재질의 반사도, 또는 창문의 배치로 인한 외부광의 투과도 등을 함께 반영하여 외부광이 센싱되는 위치인지, 혹은 반사된 외부광이 존재하는지를 확인할 수 있다. 또한, 앞서 표 1에서 살펴본 바와 같이 바닥의 빛의 반사도를 확인하고 조명의 위치를 맵 저장부(141a)에서 확인하여 빛의 영향을 뎁스 정보에서 제거하여 정확하게 뎁스 값을 산출할 수 있다. In FIG. 10, information of the map storage unit 141 may be used. In FIG. 6, reflection of the material of the wall of the specific space or the degree of transmission of external light due to the arrangement of the window is reflected, Or whether there is reflected external light. Also, as shown in Table 1, it is possible to confirm the reflectivity of the light at the bottom and check the position of the illumination at the map storage unit 141a, thereby removing the influence of light from the depth information, thereby accurately calculating the depth value.

한편, 도 10에서 41 내지 43에서 특정한 뎁스 셀의 값의 변화를 확인하기 위해 뎁스 정보의 특정한 위치(x, y)를 참조할 수도 있으나, 본 발명의 다른 실시예에 의하면 41 내지 43에서 기준이 되는 지점이 있는 경우 이 지점에 대응한 상대 좌표를 구할 수 있다. 예를 들어 41의 원통기둥이 42, 43에서 점차적으로 접근하는 것으로 비전 센싱부(192)가 확인한 경우, 값이 급변하는 영역과 원통기둥과의 거리에 비례하여 뎁스 셀의 위치를 확인할 수 있다. Although it is possible to refer to the specific position (x, y) of the depth information in order to check the change of the value of the specific depth cell in FIG. 10 through 41 to 43, according to another embodiment of the present invention, The relative coordinates corresponding to this point can be obtained. For example, when the vision sensing unit 192 confirms that the cylindrical column 41 is gradually approaching at 42 and 43, the position of the depth cell can be confirmed in proportion to the distance between the area where the value rapidly changes and the cylindrical column.

일 실시예로 42p의 위치가 (30, 75) 이지만 42에서는 해당 지점에 (28, 73)이 될 수 있으며, 뎁스 셀의 변화의 보다 정확한 추이를 분석하기 위해 비전 센싱부(192)가 센싱한 사물의 정보를 이용할 수 있다. In one embodiment, the position of 42p is (30,75), but the position of 42p may be (28,73) at the corresponding point. In order to analyze a more accurate transition of the depth cell, the vision sensing unit 192 senses Information of objects can be used.

도 11 및 도 12는 본 발명의 일 실시예에 의한 뎁스 센싱 모듈이 외부광의 영향을 반영하여 객체의 뎁스 값을 센싱하는 과정을 보여주는 도면이다. 독립적으로 동작하는 뎁스 센싱 모듈(100) 또는 이러한 뎁스 센싱 모듈(100)이 장착된 로봇(1000)에서 모두 구현 가능하다. 11 and 12 are views illustrating a process of sensing a depth value of an object by reflecting the influence of external light in a depth sensing module according to an exemplary embodiment of the present invention. It can be implemented in the depth sensing module 100 that operates independently or in the robot 1000 in which the depth sensing module 100 is mounted.

도 11에서 뎁스 센싱 모듈(100)의 뎁스 카메라부(110)가 제1시점에서 센싱한 객체의 제1뎁스 정보를 저장부(130)에 저장한다(S61). 그리고 뎁스 카메라부(110)가 제2시점에서 센싱한 객체의 제2뎁스 정보를 저장부(130)에 저장한다(S62). 제1시점이전에도 다수의 뎁스 정보가 저장될 수 있다. In FIG. 11, the depth camera unit 110 of the depth sensing module 100 stores the first depth information of the object sensed at the first viewpoint in the storage unit 130 (S61). Then, the depth camera unit 110 stores the second depth information of the object sensed at the second view point in the storage unit 130 (S62). A plurality of depth information can be stored even before the first point in time.

도 12에서 살펴보면, 다수의 뎁스 셀들로 구성되며 매 시점 별로, 즉 프레임 별로 생성된 뎁스 정보들이 n개 저장부(130)에 저장될 수 있다. 저장부(130)에 저장된 뎁스 정보들의 동일한 위치의 뎁스 셀의 뎁스 값들은 짧은 시간 내에 뎁스 센싱 모듈(100)이 이동한 상태에서 뎁스 카메라부(110)가 센싱한 것이므로, 각 뎁스 셀 별로 뎁스 값의 변화가 크지 않다. Referring to FIG. 12, the depth information generated by each view point, i.e., each frame, which is composed of a plurality of depth cells, may be stored in n storage units 130. Since the depth values of the depth cell at the same position of the depth information stored in the storage unit 130 are sensed by the depth camera unit 110 in a state where the depth sensing module 100 moves within a short time, .

이는 뎁스 센싱 모듈(100) 또는 로봇(1000)의 이동 속도, 외부 사물의 이동 속도, 그리고 뎁스 카메라부(110)가 센싱하는 간격(프레임 별 시간 간격)에 따라 달라질 수 있다. 따라서, 뎁스 센싱 모듈(100)의 제어부(150) 또는 센싱 데이터 필터링부(120)는 이동 속도와 센싱 간격을 기준으로 뎁스 값의 최대 변동기준값을 설정할 수 있다. 일 실시예로, 뎁스 센싱 모듈(100)의 이동 속도가 500mm/s이고, 외부 사물의 최대 이동 가능한 속도가 1000mm/s일 때, 1초에 약 1500mm의 거리차가 발생할 수 있다. This may vary depending on the moving speed of the depth sensing module 100 or the robot 1000, the moving speed of an external object, and the interval (time interval for each frame) at which the depth camera unit 110 senses. Therefore, the controller 150 or the sensing data filtering unit 120 of the depth sensing module 100 can set the maximum variation reference value of the depth value based on the moving speed and the sensing interval. In one embodiment, when the moving speed of the depth sensing module 100 is 500 mm / s and the maximum movable speed of the external object is 1000 mm / s, a distance difference of about 1500 mm per second may occur.

한편, 뎁스 카메라부(110)가 센싱하는 간격이 1초에 30 프레임인 경우를 가정 시 매 프레임 별로 생성되는 뎁스 정보들은 최대 50mm (1500mm / 30초)의 뎁스 값의 차이가 발생할 수 있다. 따라서, 뎁스 값의 최대 변동기준값으로 50 mm 혹은 이 보다 조금 더 큰 값(100 mm)로 설정한 후, 도 12에 누적된 뎁스 정보에서 특정 뎁스 셀의 뎁스 값이 이전 프레임과 비교하여 뎁스 값의 최대 변동기준값 보다 큰 경우 뎁스 값이 가비지 값인지를 센싱 데이터 필터링부(120)가 확인할 수 있다.On the other hand, assuming that the interval at which the depth camera unit 110 is sensed is 30 frames per second, a depth value of 50 mm (1500 mm / 30 seconds) maximum may be generated in the depth information generated for each frame. Therefore, after setting the value of the maximum variation value of the depth value to 50 mm or a value slightly larger than this (100 mm), the depth value of the specific depth cell is compared with the previous frame in the depth information accumulated in FIG. The sensing data filtering unit 120 can check whether the depth value is a garbage value.

다시 도 11로 돌아와서, 뎁스 센싱 모듈(100)의 센싱 데이터 필터링부(120)가 생성된 제1뎁스 정보 및 상기 제2뎁스 정보를 비교하여 상기 제2뎁스 정보에서 필터링할 영역을 식별한다(S63). 식별하는 방식으로는, 센싱 데이터 필터링부(120)가 앞서 뎁스 값의 변동이 일정한 기준 값(최대 변동 기준값)보다 큰 경우 그러한 뎁스 값들에 대응하는 뎁스 셀들을 필터링할 영역으로 식별한다. 11, the sensing data filtering unit 120 of the depth sensing module 100 compares the generated first depth information and the generated second depth information to identify an area to be filtered from the second depth information (S63 ). When the sensing data filtering unit 120 previously identifies the depth cells, the depth cells corresponding to the depth values are identified as areas to be filtered if the variation of the depth values is greater than a predetermined reference value (maximum variation reference value).

혹은 앞서 외부광의 특성을 광정보 제공부(140)를 통해 확인하거나 광센싱부(111)가 외부광의 세기를 센싱한 결과, 혹은 로봇(1000)의 객체 센싱 모듈(190)이 센싱한 외부 객체의 존재 혹은 거리 등의 정보에 기반하여 해당 뎁스 셀의 뎁스 값이 가비지 값으로 판단될 경우, 센싱 데이터 필터링부(120)는 하나 이상의 뎁스 셀로 구성되는 필터링할 영역을 식별한다. Alternatively, the external sensing unit may be configured to detect the external light characteristic through the optical information providing unit 140 or to sense the intensity of the external light by the optical sensing unit 111 or the sensing result of the external object sensed by the object sensing module 190 of the robot 1000 If the depth value of the corresponding depth cell is determined as a garbage value based on information such as existence or distance, the sensing data filtering unit 120 identifies a region to be filtered composed of one or more depth cells.

필터링할 영역은 제2뎁스 정보 내의 하나 이상의 뎁스 셀이 될 수 있으며, 제어부(150)는 제2뎁스 정보에서 상기 필터링 영역의 뎁스 값을 조정한다(S64). The area to be filtered may be one or more depth cells in the second depth information, and the controller 150 adjusts the depth value of the filtering area in the second depth information (S64).

조정하는 것의 일 실시예는 제2뎁스 정보를 저장부(130)에서 제거하고 새로이 새로운 시점에서 뎁스 정보를 생성하는 것을 일 실시예로 한다. One embodiment of the adjustment is one in which the second depth information is removed from the storage unit 130 and depth information is generated at a new new point.

다음으로 조정하는 것의 다른 실시예로, 제2뎁스 정보에서 상기 필터링 영역의 뎁스 값을 변경할 수 있다. 이는 제1뎁스 정보를 참조하거나 혹은 그 외에 시간적으로 인접한 다른 뎁스 정보들을 참조하여 해당 필터링 영역을 구성하는 뎁스 셀들의 뎁스 값을 변경할 수 있다. 앞서 도 10에서 53과 같이 센싱된 뎁스 정보를 54와 같이 변경하는 것을 일 실시예로 한다. As another embodiment of the next adjustment, the depth value of the filtering area may be changed in the second depth information. This can change the depth value of the depth cells constituting the filtering region by referring to the first depth information or other temporally adjacent depth information. The depth information sensed as 53 in FIG. 10 is changed to 54 as an embodiment.

도 13은 본 발명의 일 실시예에 의한 뎁스 값을 변경하는 과정을 보여주는 도면이다. 13 is a flowchart illustrating a process of changing a depth value according to an exemplary embodiment of the present invention.

도 12에서 살펴본 바와 같이 제1-1뎁스 정보 내지 제1-4뎁스 정보의 동일한 위치(X1, Y1)의 뎁스 셀은 각각 D11 내지 D14의 값을 가진다. D11 내지 D4의 값의 변화 추이는 감소하는 형태이며, D11-D12, D12-D13, D13-D14의 차이는 미리 설정된 오차 범위 내이다. As shown in FIG. 12, the depth cells at the same positions (X1, Y1) of the 1-1th-depth information to the 1-4th depth information have values of D11 to D14, respectively. D11 to D4 changes in a decreasing manner, and the difference between D11-D12, D12-D13 and D13-D14 is within a predetermined error range.

그런데 제2뎁스 정보에서 센싱된 뎁스 값(D2)이 0 또는 0에 근접하거나 이전의 D11 내지 D14의 변화 방향에서 벗어난 값으로 설정되면, 센싱 데이터 필터링부(120)는 가비지 값으로 판단한다. 그리고, 이전에 센싱된 뎁스 정보 혹은 이후 센싱된 뎁스 정보를 기준으로 제2뎁스 정보의 동일한 위치(X1, Y1)의 뎁스 셀의 뎁스 값을 D2'와 같이 설정할 수 있다. However, if the depth value D2 sensed in the second depth information is close to 0 or 0 or set to a value deviating from the previous D11 to D14 change direction, the sensing data filtering unit 120 determines that the sensing value is a garbage value. The depth value of the depth cell at the same position (X1, Y1) of the second depth information can be set to D2 'based on the previously sensed depth information or the subsequently sensed depth information.

D2를 산출하기 위해서 제어부는 이전 뎁스 정보를 그대로 이용하여 D2를 산출하거나 또는 이전 뎁스 정보에 가중치를 적용하여 생성된 D2'를 산출하여 D2'값이 제2뎁스 정보의 뎁스 셀인 DCell(X1, Y1)의 뎁스 값으로 설정할 수 있다. 즉, 필터링 영역 내의 뎁스 셀들에 대해 각각 뎁스 값을 새로이 계산에 따라 산출하여 새로운 뎁스 정보를 생성하고 이를 제어부(150)가 저장부에 저장한다. In order to calculate D2, the controller calculates D2 using the previous depth information as it is or calculates D2 'generated by applying a weight to the previous depth information, and the value of D2' is the depth cell of the second depth information DCell (X1, Y1 Can be set to the depth value. That is, a depth value is newly calculated for each depth cell in the filtering area to generate new depth information, and the control unit 150 stores the depth information in the storage unit.

정리하면, 다음과 같다. 제어부(150)가 제1뎁스 정보(또는 제1-1 내지 제1-4 뎁스 정보)를 제2뎁스 정보의 필터링할 영역에 적용하여 새로운 뎁스 정보를 생성할 수 있다. The following is summarized. The controller 150 may generate the new depth information by applying the first depth information (or the 1-1 to 1-4 depth information) to the area to be filtered of the second depth information.

또는 제어부(150)는 제1뎁스 정보(또는 제1-1 내지 제1-4 뎁스 정보)에 가중치를 적용하여 생성된 뎁스 정보를 제2시점의 제2뎁스 정보의 필터링할 영역에 적용하여 새로운 뎁스 정보를 생성할 수 있다. 그리고 제어부(150)는 저장부(130)에 제2시점에서의 뎁스 정보로 새로이 생성한 뎁스 정보를 저장할 수 있다. 전술한 가중치의 적용 과정에서는 로봇의 이동 속도를 반영할 수 있다. Alternatively, the controller 150 applies the depth information generated by applying the weight to the first depth information (or the 1-1 to 1-4 depth information) to the area to be filtered of the second depth information at the second time point, The depth information can be generated. The controller 150 may store the newly generated depth information in the storage unit 130 as the depth information at the second time point. The moving speed of the robot can be reflected in the process of applying the weight.

도 14는 본 발명의 일 실시예에 의한 뎁스 정보를 새로이 생성하여 저장하는 실시예를 보여주는 도면이다. 뎁스 센싱 모듈(100)이 시간순으로 10p, 10q, 10s과 같이 뎁스 정보를 생성한다. 이 과정에서 가장 최근인 10s의 뎁스 정보 중에서 이전 뎁스 정보의 값의 변화와 차이가 발생하는 영역(10s의 DCell1, DCell2 영역)을 필터링 영역으로 식별한다. 일 실시예로 센싱 데이터 필터링부(120)는 제1뎁스 정보(10p 및 10q)의 제1뎁스 셀(Dcell1 또는 DCell2)의 제1뎁스 값이 10 또는 9씩 감소한 것을 확인한다. FIG. 14 is a diagram illustrating an example of newly generating and storing depth information according to an embodiment of the present invention. The depth sensing module 100 generates depth information such as 10p, 10q, and 10s in chronological order. In this process, among the most recent depth information of 10s, an area (DCell1, DCell2 area of 10s) in which the difference of the value of the previous depth information occurs is identified as a filtering area. In one embodiment, the sensing data filtering unit 120 confirms that the first depth value of the first depth cell (Dcell1 or DCell2) of the first depth information 10p and 10q is decreased by 10 or 9, respectively.

또한, 10p 및 10q의 제1뎁스 셀(Dcell1 또는 DCell2)에 대응하는 제2뎁스 정보(10s)의 제2뎁스 셀(Dcell1 또는 DCell2)의 제2뎁스 값이 각각 "0"을 가지므로 센싱 데이터 필터링부(120)는 이전의 값들과 차이가 발생함을 비교하여 식별할 수 있다.Since the second depth values of the second depth cell (Dcell1 or DCell2) of the second depth information (10s) corresponding to the first depth cell (Dcell1 or DCell2) of 10p and 10q are respectively "0" The filtering unit 120 can compare the occurrence of the difference with the previous values.

보다 상세히, 센싱 데이터 필터링부(120)는 DCell1의 경우 뎁스 값이 90, 80, 0으로 변화한 것이므로 마지막 "0"으로 센싱된 뎁스 값이 가비지 값인 것으로 확인할 수 있다. 마찬가지로 센싱 데이터 필터링부(120)는 DCell2의 경우 뎁스 값이 80, 71, 0으로 변화한 것이므로 마지막 "0"으로 센싱된 뎁스 값이 가비지 값인 것으로 확인할 수 있다. 그 결과, 센싱 데이터 필터링부(120)는 새로운 뎁스 정보(10s')를 생성할 수 있는데, 필터링 영역(Filtering Area)를 구성하는 뎁스 셀들의 값이 각각 70 및 62로 변경되었음을 확인할 수 있다. 이러한 뎁스 값의 변경은 10p, 10q의 변화 과정을 반영한 것이다. More specifically, the sensing data filtering unit 120 can determine that the depth value sensed at the last "0 " is a garbage value since DCell1 has a depth value changed to 90, 80, Similarly, the sensing data filtering unit 120 can determine that the depth value sensed at the last "0 " is the garbage value since the depth value of DCell2 is changed to 80, 71, As a result, the sensing data filtering unit 120 can generate the new depth information 10s'. It can be confirmed that the values of the depth cells constituting the filtering area are changed to 70 and 62, respectively. The change of the depth value reflects the change process of 10p and 10q.

물론, 센싱 데이터 필터링부(120)는 직전의 뎁스 정보만 이용할 수도 있다. 예를 들어 10q를 참조하고 외부광의 영향이 없을 경우, 10q와 10s 사이에 최대로 발생할 수 있는 뎁스 값의 차이가 20인 경우, 20 이상 차이가 발생한 뎁스 값을 가비지 값으로 설정하여 새로은 뎁스 값을 산출할 수 있다. Of course, the sensing data filtering unit 120 may use only the immediately preceding depth information. For example, if 10q is referenced and there is no influence of external light, the maximum depth value that can be generated between 10q and 10s is 20, then the depth value that caused 20 or more difference is set as the garbage value, Can be calculated.

도 13 및 도 14에서는 뎁스 정보에서 동일한 X/Y 지점의 뎁스 셀의 뎁스 값의 변화에 기반하였으나, 본 발명이 이에 한정되는 것은 아니다. 예를 들어 객체 센싱 모듈(190)의 비전 센싱부(192)에서 촬영한 결과 사물들이 우측으로 이동하는 것으로 촬영될 경우, 이러한 변화를 반영하여 연관된 뎁스 셀의 뎁스 값을 비교할 수 있다. 13 and 14, the depth information is based on the variation of the depth value of the depth cell of the same X / Y point in the depth information, but the present invention is not limited thereto. For example, when the subject is photographed by the vision sensing unit 192 of the object sensing module 190 as moving toward the right, the depth value of the associated depth cell may be reflected by reflecting the change.

일 실시예로, 제1뎁스 정보에서는 (1, 1)이 제1뎁스 셀이었으나, 제2뎁스 정보에서는 동일한 사물이 이동하여 (1, 2)로 이동한 것으로 확인되면 제2뎁스 셀은 (1, 2)가 될 수 있다. 이를 위해 비전 센싱부(192)가 센싱한 사물의 이동을 추적하여 연관된 뎁스 셀들을 분석할 수 있다. In one embodiment, if the first depth information indicates that (1, 1) is the first depth cell, but the second depth information indicates that the same object has moved and moved to (1, 2) , 2). For this purpose, the vision sensing unit 192 can track the movement of the sensed object and analyze the associated depth cells.

정리하면 제1뎁스 정보의 제1뎁스 셀의 위치와 제2뎁스 정보의 제2뎁스 셀의 위치는 동일할 수도 있고 상이할 수도 있으며, 상이한 경우, 사물의 이동을 추적하여 동일한 사물로 파악한 정보에 기반하여 상이한 위치를 선별할 수 있다. In summary, the position of the first depth cell of the first depth information and the position of the second depth cell of the second depth information may be the same or different, and when they are different, the movement of the object is tracked, Different positions can be selected on the basis of the results.

도 15는 본 발명의 일 실시예에 의한 뎁스 값의 조정 과정을 보다 상세히 보여주는 도면이다. 도 11의 S63 및 S64 과정을 상술하며 도 14의 실시예를 참조한다. FIG. 15 is a detailed diagram illustrating a process of adjusting a depth value according to an embodiment of the present invention. Referring to FIG. The steps S63 and S64 of FIG. 11 will be described in detail and the embodiment of FIG. 14 will be described.

센싱 데이터 필터링부(120)가 제1시점에서 센싱한 객체의 제1뎁스 정보의 제1뎁스 셀의 제1뎁스 값 D1(도 14에서 D11 내지 D14를 일 실시예로 함)을 산출한다(S631). 그리고 센싱 데이터 필터링부(120)가 제2시점에서 센싱한 객체의 제2뎁스 정보의 제2뎁스 셀의 제2뎁스 값 D2를 산출한다(S632). 센싱 데이터 필터링부(120)는 D1과 D2의 차이가 설정된 기준 이상인 경우(S633) S635와 같이 필터링을 수행한다. 차이가 설정된 기준 이하인 경우에는 D2를 포함하는 제2뎁스 정보를 저장부에 저장한다(S649).The sensing data filtering unit 120 calculates the first depth value D1 (D11 to D14 in Fig. 14 as one embodiment) of the first depth cell of the first depth information of the object sensed at the first time point (S631 ). The sensing data filtering unit 120 calculates the second depth value D2 of the second depth cell of the second depth information of the object sensed at the second point of time (S632). If the difference between D1 and D2 is equal to or greater than the preset reference (S633), the sensing data filtering unit 120 performs filtering as in S635. If the difference is equal to or less than the set reference, the second depth information including D2 is stored in the storage unit (S649).

S633에서 D1과 D2의 차이가 설정된 기준 이상인지를 판단하는 일 실시예로, D1과 D2의 차이가 제1시점에서의 뎁스 센싱 모듈(100)의 위치와 제2시점에서의 뎁스 센싱 모듈의 위치 사이의 차이보다 큰 경우 또는 앞서 사물의 이동 속도까지 고려하여 최대 변동기준값과 같이 미리 설정된 기준 보다 큰 경우에 D2가 가비지 값을 가질 가능성이 큰 것으로 확인한다. In step S633, it is determined whether the difference between D1 and D2 is equal to or greater than a preset reference. The difference between D1 and D2 is determined based on the position of the depth sensing module 100 at the first time point and the position of the depth sensing module at the second time point. It is confirmed that D2 is likely to have a garbage value in a case where the difference is greater than a predetermined threshold such as a maximum variation reference value in consideration of the moving speed of the object.

한편, S641의 일 실시예로 제어부(150)는 새로운 D2'를 산출하기 위해 앞서 제1시점 및 상기 제2시점에서의 뎁스 센싱 모듈의 위치 차이에 기반하여 D1을 D2'(새로운 뎁스 값)를 생성한다. 위치 차이에 기반한다는 것은 이전에 누적된 뎁스 값들의 변화추이를 적용하거나 혹은 뎁스 센싱 모듈이 두 시점 사이에 이동한 거리 정보를 반영하는 것을 의미한다. 그리고 제어부(150)는 새로이 생성한 D2'를 제2뎁스 셀의 뎁스 값으로 설정한다. In order to calculate a new D2 ', the controller 150 sets D1 to D2' (new depth value) based on the difference in position of the depth sensing module at the first and second points of time . The fact that the depth difference is based on the difference means that the previously accumulated variation of the depth values is applied or the depth sensing module reflects the distance information moved between the two points. Then, the controller 150 sets the newly generated D2 'to the depth value of the second depth cell.

도 16은 본 발명의 일 실시예에 의한 센싱 데이터 필터링부가 필터링 영역을 식별하는 과정에서 외부광의 특성 정보를 이용하는 과정을 보여주는 도면이다. 전술한 바와 같이 광정보 제공부(140)는 맵 저장부(141), 그리고 광원주기정보부(145), 컨텍스트부(147)를 포함하며, 센싱 데이터 필터링부(120)는 현재 위치에서의 빛의 영향을 분석하여 필터링 영역을 식별할 수 있다. FIG. 16 is a diagram illustrating a process of using external light characteristic information in a process of identifying a filtering region by the sensing data filtering unit according to an exemplary embodiment of the present invention. As described above, the optical information providing unit 140 includes a map storage unit 141, a light source period information unit 145, and a context unit 147. The sensing data filtering unit 120 includes a sensing data filtering unit 120, The effect can be analyzed to identify the filtering area.

제어부(150)는 광정보 제공부(140)에 저장된 상기 외부광의 특성 정보를 추출한다(S71). 뎁스 센싱 모듈(100) 또는 로봇(1000)의 현재 위치에서 주변에 조명이 있는지를 맵 저장부(141)에서 확인하는 것을 일 실시예로 한다. 또한 뎁스 센싱 모듈(100)의 전방에 창과 같이 외부의 빛을 투과하는 재질의 고정 객체가 있는지를 맵 저장부(141)에서 확인할 수 있다. The control unit 150 extracts characteristic information of the external light stored in the optical information providing unit 140 (S71). The map storage unit 141 confirms whether there is illumination around the current position of the depth sensing module 100 or the robot 1000 as an embodiment. Also, the map storage unit 141 can confirm whether or not there is a fixed object of a material that transmits an external light such as a window in front of the depth sensing module 100.

또한, 보다 정밀하게는 조명 또는 햇빛과 같은 외부광이 현재 발생하고 있는지를 제어부(150)가 광원주기정보부(145)와 컨텍스트부(147)를 통해 확인할 수 있다. 뿐만 아니라 광센싱부(111)를 이용하여 주변에 강한 외부광이 존재하는지를 확인할 수 있다. 확인 결과, 제어부(150)는 외부광이 존재하는지에 대한 정보 또는 외부광의 세기에 대한 정보를 산출할 수 있으며, 외부광의 세기에는 바닥 혹은 벽의 재질의 반사도까지 반영하여 제어부(150)가 산출할 수 있다. More specifically, the control unit 150 can confirm whether external light such as illumination or sunlight is currently generated through the light source period information unit 145 and the context unit 147. [ In addition, the optical sensing unit 111 can be used to confirm whether there is strong external light in the periphery. As a result, the controller 150 can calculate information on the presence or absence of the external light, and the intensity of the external light. The intensity of the external light reflects the reflectivity of the bottom or the wall material, .

즉, 높은 조도의 조명이 천장에 배치되어도 바닥의 빛 반사도가 매우 낮은 경우라면 바닥 쪽 방향으로는 외부광에 의한 뎁스 정보의 영향이 낮을 것이므로, 제어부(150)는 외부광의 발생 가능성을 낮추어서 센싱 데이터 필터링부(120)에 제공할 수 있다. In other words, even if the illuminance of high illuminance is placed on the ceiling, the influence of the depth information due to the external light is low in the bottom direction if the light reflectance of the floor is very low. Therefore, the controller 150 lowers the possibility of external light, And may be provided to the filtering unit 120.

반면, 낮은 조도의 조명이 천장에 배치되어도 바닥의 빛 반사도가 매우 높은 경우라면, 바닥쪽 방향에 외부광에 의한 뎁스 정보의 영향이 높을 것이므로 제어부(150)는 외부광의 발생 가능성을 높여서 센싱 데이터 필터링부(120)에 제공할 수 있다. 따라서, 도 16과 같은 과정에서 외부광의 특성 정보를 반영하여 센싱 데이터 필터링부(120)는 외부광에 의한 필터링 영역을 식별할 수 있다. On the other hand, if the low-illuminance illumination is placed on the ceiling and the light reflectivity of the floor is very high, the influence of the depth information due to the external light will be high in the bottom direction. Therefore, the controller 150 increases the possibility of external light, (120). Accordingly, the sensing data filtering unit 120 can identify the filtering region by the external light by reflecting the characteristic information of the external light in the process as shown in FIG.

도 17은 본 발명의 일 실시예에 의한 로봇의 이동 과정에서 센싱된 외부광 정보들을 업데이트하는 과정을 보여주는 도면이다. 업데이트는 기존에 저장된 외부광의 특성 정보를 변경하거나, 혹은 새로이 외부광 특성 정보를 추가하거나, 혹은 기저장된 외부광 특성 정보를 삭제하는 작업을 모두 포함한다. FIG. 17 is a diagram illustrating a process of updating sensed external light information in a moving process of a robot according to an exemplary embodiment of the present invention. Referring to FIG. The update includes both operations of changing the property information of the external light stored in advance, adding new external property information, or deleting the previously stored external property information.

뎁스 센싱 모듈(100) 또는 로봇(1000)은 광센싱부(111)를 포함한다. 광센싱부(111)는 뎁스 센싱 모듈(100)과 독립하여 로봇(1000)의 구성 요소가 될 수 있다. The depth sensing module 100 or the robot 1000 includes an optical sensing unit 111. The optical sensing unit 111 may be a component of the robot 1000 independently of the depth sensing module 100.

로봇 제어부(900)는 로봇(1000)의 이동 과정에서 광센싱부(111)가 센싱한 외부광의 세기 또는 외부광의 온오프 시점이 광정보 제공부(140)에 저장된 외부광의 특성 정보를 비교한다(S81). 비교한 결과 상이한 경우(S82) 광정보 제공부(140)에 외부광의 세기 또는 온오프 시점에 대한 정보를 변경하여 저장한다(S83). The robot controller 900 compares the intensity of the external light sensed by the optical sensing unit 111 or the time point of turning on and off the external light during the movement of the robot 1000 with the characteristic information of the external light stored in the optical information providing unit 140 S81). If the comparison result is different (S82), the information about the external light intensity or on-off time is changed and stored in the optical information providing unit 140 (S83).

본 발명의 다른 실시예에서 S82에서 상이한 경우에 무조건 광정보 제공부(140)에 센싱된 외부광의 특성 정보를 저장하는 방안 대신에 로봇 제어부(900)는 임시로 실시간 센싱된 외부광의 특성 정보를 저장한 후, 광정보 제공부(140)에 변경하여 저장할 만큼 충분히 규칙성을 가지는 것으로 데이터가 누적된 경우에 임시로 저장된 외부광의 특성 정보를 광정보 제공부(140)에 저장할 수 있다. Instead of storing the characteristic information of the external light sensed by the unconditional optical information providing unit 140 in a different case in S82, the robot control unit 900 temporarily stores the characteristic information of the external light sensed in real time in another embodiment of the present invention The characteristic information of the external light temporarily stored in the optical information providing unit 140 may be stored in the optical information providing unit 140 when the data is accumulated in the optical information providing unit 140 so as to have a regularity enough to store the changed information.

본 발명의 실시예들을 적용할 경우, 뎁스 센싱 모듈(100)의 뎁스 카메라부(110)를 구성하는 센서들, 예를 들어 적외선(IR) 센서가 실외에서 사용하거나 햇빛 또는 조명이 많이 유입되는 공간에서 사용되거나 혹은 햇빛이 반사되는 환경에서 뎁스 값을 왜곡하여 센싱하는 경우에 이를 필터링하여 정상적인 뎁스 정보를 산출할 수 있도록 한다. When the embodiments of the present invention are applied, the sensors constituting the depth camera unit 110 of the depth sensing module 100, for example, a space in which an infrared (IR) sensor is used outdoors, Or when the depth value is distorted and sensed in an environment in which sunlight is reflected, it is filtered to calculate the normal depth information.

특히, 공항, 학교, 병원, 고속버스 터미널, 기차역 등과 같이 개방된 대면적에는 창문이 많고 조명 또한 다수 배치되므로, 빛이 반사 또는 투과되어 뎁스 카메라부(110)로 빛들이 들어와 영향을 주는 경우가 많다. 이러한 환경에서 본 발명을 적용할 경우 뎁스 카메라(110)가 영향을 받는 뎁스 값들을 분석하여 빛에 의해 왜곡된 뎁스 값들을 필터링하여 가비지 값을 식별할 수 있다. In particular, since a large number of windows and many lights are disposed in an open large area such as an airport, a school, a hospital, a high-speed bus terminal, a train station, etc., light is reflected or transmitted to affect the depth camera unit 110 many. When the present invention is applied in such an environment, the depth camera 110 can analyze the depth values that are affected and filter depth values distorted by the light to identify the garbage value.

특히, 본 발명의 실시예에 의한 광정보 제공부(140)은 시간 및 장소, 그리고 컨텍스트 별로 조명이나 햇빛 등 외부광의 발생 여부에 대한 정보를 제공하므로, 뎁스 값을 필터링할 것인지 그대로 사용할 것인지를 외부광의 상태에 적합하게 선택할 수 있다. Particularly, since the optical information providing unit 140 according to the embodiment of the present invention provides information on whether external light such as illumination or sunlight is generated for each time, place, and context, whether the depth value is to be filtered, It can be selected appropriately according to the state of light.

본 발명을 적용할 경우, 로봇이나 뎁스 센싱 모듈은 산출된 뎁스 정보에서 실제 장애물이나 사람 등 로봇이나 뎁스 센싱 모듈이 회피해야 하는 대상과 외부광으로 인한 왜곡된 정보를 구분할 수 있다. 특히, 공항, 학교, 병원, 터미널, 기차역, 복합몰 등과 같은 넓은 면적의 경우 모든 장소에서 로봇이 햇빛의 영향을 받는 것은 아니기 때문에 광정보 제공부(140)에 저장된 전체 맵에 기반하여 현재 로봇의 위치와 시간을 분석하여 로봇이 햇빛이나 강한 조명과 같이 외부광의 영향을 받는 구간에서만 필터링 알고리즘을 적용하여 효율적으로 로봇이 운용될 수 있도록 제어할 수 있다. In the case of applying the present invention, the robot or the depth sensing module can distinguish the object to be avoided by the robot or the depth sensing module, such as a real obstacle or a human, from distorted information due to external light, from the calculated depth information. Particularly, in a wide area such as an airport, a school, a hospital, a terminal, a train station, a complex mall, etc., since robots are not affected by sunlight at all places, By analyzing the position and time, it is possible to control the robot to operate efficiently by applying the filtering algorithm only in the section where the robot is affected by the external light such as sunlight or strong illumination.

필터링 과정에서 이전 프레임에서 누적한 뎁스 정보들과 비교하는 과정에서 지연이 발생할 수 있는데, 이 과정에서 로봇의 현재 위치와 현재 위치에서의 외부광의 영향에 대한 정보를 이용하여 필터링을 매순간 하지 않고 일정한 공간에서만 수행하여 데이터 처리 속도를 높일 수 있다. 또한, 광센싱부(111)를 이용하여 외부광이 강한 경우와 그렇지 않은 경우에 대한 상황 정보에 기반하여 필터링을 적용할 수 있다.In the filtering process, a delay may occur in the process of comparing with the depth information accumulated in the previous frame. In this process, using the information of the influence of the external light at the current position and the current position of the robot, It is possible to increase the data processing speed. Further, the optical sensing unit 111 can be used to apply filtering based on context information for cases where external light is strong or not.

도 17에서 살펴본 바와 같이 로봇(1000)이 동일한 공간을 반복하여 주행하게 될 경우, 외부광의 발생 시점 혹은 발생 상황에 대한 정보를 누적하여 저장할 수 있다. As shown in FIG. 17, when the robot 1000 travels repeatedly in the same space, it can accumulate information on the generation time or occurrence of external light.

특히, 빛이 반사되는 경우에 데이터로 인식되는 것을 필터링하기 위해 도 6에서 살펴본 바와 같이 조명의 위치, 창문의 위치 및 벽과 바닥의 빛 반사 정도에 대한 정보를 유지하여 외부광으로 인해 데이터가 왜곡될 가능성을 산출하여 이에 기반하여 필터링하거나 혹은 필터링 동작을 수행하지 않을 수 있다. In particular, as shown in FIG. 6, in order to filter what is recognized as data when light is reflected, information about the position of the light, the position of the window, and the degree of light reflection on the wall and the floor is maintained, It is possible to calculate the likelihood to be filtered based on this, or to perform no filtering operation.

또한, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니며, 본 발명의 목적 범위 내에서 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 반도체 기록소자를 포함하는 저장매체를 포함한다. 또한 본 발명의 실시예를 구현하는 컴퓨터 프로그램은 외부의 장치를 통하여 실시간으로 전송되는 프로그램 모듈을 포함한다. In addition, it is to be understood that the present invention is not necessarily limited to these embodiments, and that all the elements within the scope of the present invention Or may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. The codes and code segments constituting the computer program may be easily deduced by those skilled in the art. Such a computer program can be stored in a computer-readable storage medium, readable and executed by a computer, thereby realizing an embodiment of the present invention. The storage medium of the computer program includes a magnetic recording medium, an optical recording medium, and a storage medium including a semiconductor recording element. Also, a computer program embodying the present invention includes a program module that is transmitted in real time through an external device.

이상에서는 본 발명의 실시예를 중심으로 설명하였지만, 통상의 기술자의 수준에서 다양한 변경이나 변형을 가할 수 있다. 따라서, 이러한 변경과 변형이 본 발명의 범위를 벗어나지 않는 한 본 발명의 범주 내에 포함되는 것으로 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. It is therefore to be understood that such changes and modifications are intended to be included within the scope of the present invention unless they depart from the scope of the present invention.

100: 뎁스 센싱 모듈 110: 뎁스 카메라부
120: 센싱 데이터 필터링부 140: 광정보 제공부
141: 맵 저장부 145: 광원주기정보부
147: 컨텍스트부 190: 객체 센싱 모듈
191: 라이다 센싱부 192: 비전 센싱부
195: 센싱데이터분석부 300: 이동부
400: 기능부 500: 통신부
900: 로봇 제어부 1000: 로봇
100: Depth sensing module 110: Depth camera section
120: Sensing data filtering unit 140: Optical information providing unit
141: map storage unit 145: light source period information unit
147: context unit 190: object sensing module
191: Lada sensing part 192: Vision sensing part
195: Sensing data analysis unit 300:
400: function unit 500: communication unit
900: robot control unit 1000: robot

Claims (15)

뎁스 센싱 모듈의 뎁스 카메라부가 제1시점에서 센싱한 객체의 제1뎁스 정보를 저장부에 저장하는 단계;
상기 뎁스 카메라부가 제2시점에서 센싱한 객체의 제2뎁스 정보를 저장부에 저장하는 단계;
뎁스 센싱 모듈의 센싱 데이터 필터링부가 상기 생성된 제1뎁스 정보 및 상기 제2뎁스 정보를 비교하여 상기 제2뎁스 정보에서 필터링할 영역을 식별하는 단계; 및
뎁스 센싱 모듈의 제어부가 상기 제2뎁스 정보에서 상기 필터링 영역의 뎁스 값을 조정하는 단계를 포함하는, 외부광을 반영하여 객체의 뎁스를 센싱하는 방법.
Storing the first depth information of the object sensed at the first viewpoint by the depth camera unit of the depth sensing module in a storage unit;
Storing the second depth information of the object sensed at the second viewpoint by the depth camera unit in a storage unit;
The sensing data filtering unit of the depth sensing module compares the generated first depth information and the second depth information to identify an area to be filtered in the second depth information; And
Wherein the controller of the depth sensing module adjusts the depth value of the filtering area in the second depth information.
제1항에 있어서,
상기 뎁스 값을 변경하는 단계는
상기 제어부가 상기 제1뎁스 정보에 가중치를 적용하여 생성된 제3뎁스 정보 또는 상기 제1뎁스 정보 중 어느 하나를 상기 제2 뎁스 정보의 상기 필터링할 영역에 적용하여 제4뎁스 정보를 생성하는 단계; 및
상기 제어부가 상기 저장부에 상기 제2시점에서의 뎁스 정보로 상기 제4뎁스 정보를 저장하는 단계를 포함하는, 외부광을 반영하여 객체의 뎁스를 센싱하는 방법.
The method according to claim 1,
The step of changing the depth value
Generating the fourth depth information by applying any one of the third depth information or the first depth information generated by applying the weight to the first depth information to the area to be filtered of the second depth information, ; And
Wherein the control unit stores the fourth depth information in the storage unit as depth information at the second time point, wherein the depth information is reflected by the external light.
제1항에 있어서,
상기 식별하는 단계는 상기 센싱 데이터 필터링부가 상기 제1뎁스 정보의 제1뎁스 셀의 제1뎁스 값과 상기 제1뎁스 셀에 대응하는 상기 제2뎁스 정보의 제2뎁스 셀의 제2뎁스 값을 비교하여 필터링할 영역을 식별하는 단계인, 외부광을 반영하여 객체의 뎁스를 센싱하는 방법.
The method according to claim 1,
The sensing data filtering unit may be configured to detect the first depth value of the first depth cell of the first depth information and the second depth value of the second depth cell of the second depth information corresponding to the first depth cell, Identifying a region to be compared and filtering, the external light reflecting the depth of the object.
제3항에 있어서,
상기 식별하는 단계는 상기 센싱 데이터 필터링부가 상기 제1뎁스 값과 상기 제2뎁스 값의 차이가 상기 제1시점에서의 상기 뎁스 센싱 모듈의 위치와 상기 제2시점에서의 상기 뎁스 센싱 모듈의 위치 사이의 차이보다 크거나 또는 미리 설정된 기준 보다 큰 경우에 상기 제2뎁스 셀의 상기 제2뎁스 값을 가비지 값으로 설정하는 단계를 더 포함하며,
상기 조정하는 단계는 상기 제어부가 상기 제1시점 및 상기 제2시점에서의 뎁스 센싱 모듈의 위치 차이에 기반하여 상기 제1뎁스 값을 제3뎁스 값을 생성하는 단계; 및
상기 제어부가 상기 제 3뎁스 값을 상기 제2뎁스 셀의 뎁스 값으로 설정하는 단계를 더 포함하는, 외부광을 반영하여 객체의 뎁스를 센싱하는 방법.
The method of claim 3,
The sensing data filtering unit may be configured such that the sensing data filtering unit determines that the difference between the first depth value and the second depth value is between the position of the depth sensing module at the first time point and the position of the depth sensing module at the second time point. And setting the second depth value of the second depth cell to a garbage value when the difference value is greater than or equal to a preset reference,
Wherein the adjusting step comprises: the controller generating the first depth value and the third depth value based on the position difference of the depth sensing module at the first viewpoint and the second viewpoint; And
Wherein the controller is further configured to set the third depth value to a depth value of the second depth cell, wherein the depth of the object is reflected by the external light.
제1항에 있어서,
상기 뎁스 센싱 모듈은 상기 뎁스 센싱 모듈의 위치에서 외부광의 특성 정보를 저장하는 광정보 제공부를 더 포함하며,
상기 식별하는 단계는 상기 제어부가 광정보 제공부에 저장된 상기 외부광의 특성 정보를 추출하는 단계;
상기 센싱 데이터 필터링부는 상기 추출된 외부광의 특성 정보를 반영하여 상기 필터링 영역을 식별하는 단계인, 외부광을 반영하여 객체의 뎁스를 센싱하는 방법.
The method according to claim 1,
The depth sensing module may further include an optical information providing unit for storing external light characteristic information at a position of the depth sensing module,
The identifying step may include extracting characteristic information of the external light stored in the optical information providing unit;
Wherein the sensing data filtering unit identifies the filtering region by reflecting characteristic information of the extracted external light.
뎁스 정보를 저장하는 저장부;
제1시점에서 객체의 제1뎁스 정보 및 상기 제1시점과 시간적으로 선행하거나 또는 후행하는 제2시점에서 객체의 제2뎁스 정보를 생성하는 뎁스 카메라부;
상기 생성된 제1뎁스 정보 및 상기 제2뎁스 정보를 비교하여 상기 제2뎁스 정보에서 필터링할 영역을 식별하는 센싱 데이터 필터링부; 및
상기 제2뎁스 정보에서 상기 필터링 영역의 뎁스 값을 변경하거나 또는 상기 제2뎁스 정보를 상기 저장부에서 제거하는 제어부를 포함하는, 외부광을 반영하여 객체의 뎁스를 센싱하는 뎁스 센싱 모듈.
A storage unit for storing depth information;
A depth camera unit for generating first depth information of the object at a first time point and second depth information of the object at a second time point temporally preceding or following the first time point;
A sensing data filtering unit for comparing the generated first depth information and the second depth information to identify an area to be filtered in the second depth information; And
And a control unit for changing a depth value of the filtering area in the second depth information or removing the second depth information from the storage unit, the depth sensing module reflecting the external light.
제6항에 있어서,
상기 제어부는 상기 제1뎁스 정보에 가중치를 적용하여 생성된 제3뎁스 정보 또는 상기 제1뎁스 정보 중 어느 하나를 상기 제2 뎁스 정보의 상기 필터링할 영역에 적용하여 제4뎁스 정보를 생성하고 상기 저장부에 상기 제2시점에서의 뎁스 정보로 상기 제4뎁스 정보를 저장하는, 외부광을 반영하여 객체의 뎁스를 센싱하는 뎁스 센싱 모듈.
The method according to claim 6,
Wherein the controller generates the fourth depth information by applying any one of the third depth information or the first depth information generated by applying the weight to the first depth information to the area to be filtered of the second depth information, And stores the fourth depth information in the storage unit as depth information at the second viewpoint, the depth sensing module reflecting the external light and sensing the depth of the object.
제6항에 있어서,
상기 센싱 데이터 필터링부는
상기 제1뎁스 정보의 제1뎁스 셀의 제1뎁스 값과 상기 제1뎁스 셀에 대응하는 상기 제2뎁스 정보의 제2뎁스 셀의 제2뎁스 값을 비교하여 필터링할 영역을 식별하는, 외부광을 반영하여 객체의 뎁스를 센싱하는 뎁스 센싱 모듈.
The method according to claim 6,
The sensing data filtering unit
A first depth value of the first depth information of the first depth information is compared with a second depth value of a second depth cell of the second depth information corresponding to the first depth cell, A depth sensing module that senses the depth of an object by reflecting light.
제8항에 있어서,
상기 센싱 데이터 필터링부는 상기 제1뎁스 값과 상기 제2뎁스 값의 차이가 상기 제1시점에서의 상기 뎁스 센싱 모듈의 위치와 상기 제2시점에서의 상기 뎁스 센싱 모듈의 위치 사이의 차이보다 크거나 또는 미리 설정된 기준 보다 큰 경우에 상기 제2뎁스 셀의 상기 제2뎁스 값을 가비지 값으로 설정하며,
상기 제어부는 상기 제1시점 및 상기 제2시점에서의 뎁스 센싱 모듈의 위치 차이에 기반하여 상기 제1뎁스 값을 제3뎁스 값을 생성하여 상기 제 3뎁스 값을 상기 제2뎁스 셀의 뎁스 값으로 설정하는, 외부광을 반영하여 객체의 뎁스를 센싱하는 뎁스 센싱 모듈.
9. The method of claim 8,
Wherein the sensing data filtering unit is configured to determine whether the difference between the first depth value and the second depth value is greater than a difference between the position of the depth sensing module at the first time point and the position of the depth sensing module at the second time point Or sets the second depth value of the second depth cell to a garbage value when the second depth value is greater than a preset reference,
The controller generates the third depth value based on the position difference of the depth sensing module at the first viewpoint and the second viewpoint, and outputs the third depth value to the depth value of the second depth cell And a depth sensing module for sensing the depth of the object by reflecting external light.
제6항에 있어서,
상기 뎁스 센싱 모듈의 위치에서 외부광의 특성 정보를 저장하는 광정보 제공부를 더 포함하며,
상기 제어부가 광정보 제공부에 저장된 상기 외부광의 특성 정보를 추출하며,
상기 센싱 데이터 필터링부는 상기 추출된 외부광의 특성 정보를 반영하여 상기 필터링 영역을 식별하는, 외부광을 반영하여 객체의 뎁스를 센싱하는 뎁스 센싱 모듈.
The method according to claim 6,
And an optical information providing unit for storing the characteristic information of the external light at the position of the depth sensing module,
The control unit extracts characteristic information of the external light stored in the optical information providing unit,
The sensing data filtering unit reflects the extracted characteristic information of the external light and identifies the filtering area. The depth sensing module senses the depth of the object by reflecting external light.
제10항에 있어서,
상기 광정보 제공부는
상기 뎁스 센싱 모듈이 뎁스 정보를 생성하는 공간의 고정 객체의 위치 및 외부광의 반사 또는 투과 정보가 저장된 맵 저장부;
상기 외부광이 온오프하는 주기 정보가 저장된 광원주기정보부; 및
상기 외부광이 온오프하는 컨텍스트가 저장된 컨텍스트부를 포함하는, 외부광을 반영하여 객체의 뎁스를 센싱하는 뎁스 센싱 모듈.
11. The method of claim 10,
The optical information providing unit
A map storage unit in which the position of the fixed object in the space in which the depth sensing module generates the depth information and the reflection or transmission information of the external light are stored;
A light source period information unit storing period information on the external light on and off; And
And a context unit storing a context in which the external light is turned on and off, the depth sensing unit reflecting the external light and sensing the depth of the object.
뎁스 정보를 저장하는 저장부와, 제1시점에서 객체의 제1뎁스 정보 및 상기 제1시점과 시간적으로 선행하거나 또는 후행하는 제2시점에서 객체의 제2뎁스 정보를 생성하는 뎁스 카메라부와 상기 생성된 제1뎁스 정보 및 상기 제2뎁스 정보를 비교하여 상기 제2뎁스 정보에서 필터링할 영역을 식별하는 센싱 데이터 필터링부와 상기 제2뎁스 정보에서 상기 필터링 영역의 뎁스 값을 변경하거나 또는 상기 제2뎁스 정보를 상기 저장부에서 제거하는 제어부를 포함하는 뎁스 센싱 모듈;
외부에 배치된 객체를 센싱하는 객체 센싱 모듈;
로봇을 이동시키는 이동부; 및
상기 뎁스 센싱 모듈 및 상기 객체 센싱 모듈의 센싱된 결과에 기반하여 로봇 주변의 객체를 확인하여 상기 로봇의 이동 경로를 제어하는 로봇 제어부를 포함하는, 외부광을 반영하여 객체의 뎁스를 센싱하여 이동하는 로봇.
A depth camera unit for generating first depth information of an object at a first viewpoint and second depth information of an object at a second viewpoint temporally preceding or following the first viewpoint at a first viewpoint, A sensing data filtering unit for comparing the generated first depth information and the second depth information to identify an area to be filtered by the second depth information, and a controller for changing a depth value of the filtering area in the second depth information, A depth sensing module including a control unit for removing two-depth information from the storage unit;
An object sensing module for sensing an object disposed outside;
A moving unit for moving the robot; And
And a robot controller for controlling an object around the robot based on the sensed result of the depth sensing module and the object sensing module to control a movement path of the robot, robot.
제1항에 있어서,
상기 뎁스 센싱 모듈 또는 상기 로봇은 상기 뎁스 센싱 모듈의 위치에서 외부광의 특성 정보를 저장하는 광정보 제공부를 더 포함하며,
상기 뎁스 센싱 모듈의 상기 제어부가 광정보 제공부에 저장된 상기 외부광의 특성 정보를 추출하며, 상기 뎁스 센싱 모듈의 상기 센싱 데이터 필터링부는 상기 추출된 외부광의 특성 정보를 반영하여 상기 필터링 영역을 식별하는, 외부광을 반영하여 객체의 뎁스를 센싱하여 이동하는 로봇.
The method according to claim 1,
The depth sensing module or the robot further includes an optical information providing unit for storing external light characteristic information at a position of the depth sensing module,
Wherein the control unit of the depth sensing module extracts the characteristic information of the external light stored in the optical information providing unit and the sensing data filtering unit of the depth sensing module identifies the filtering area by reflecting characteristic information of the extracted external light, A robot that senses the depth of an object by reflecting external light and moves it.
제13항에 있어서,
상기 광정보 제공부는
상기 뎁스 센싱 모듈이 뎁스 정보를 생성하는 공간의 고정 객체의 위치 및 외부광의 반사 또는 투과 정보가 저장된 맵 저장부;
상기 외부광이 온오프하는 주기 정보가 저장된 광원주기정보부; 및
상기 외부광이 온오프하는 컨텍스트가 저장된 컨텍스트부를 포함하는, 외부광을 반영하여 객체의 뎁스를 센싱하여 이동하는 로봇.
14. The method of claim 13,
The optical information providing unit
A map storage unit in which the position of the fixed object in the space in which the depth sensing module generates the depth information and the reflection or transmission information of the external light are stored;
A light source period information unit storing period information on the external light on and off; And
And a context in which the context in which the external light is turned on and off is stored, the robot sensing the depth of the object by reflecting external light.
제13항에 있어서,
상기 뎁스 센싱 모듈 또는 상기 로봇은 광센싱부를 더 포함하며,
상기 로봇 제어부는 상기 로봇의 이동 과정에서 상기 광센싱부가 센싱한 외부광의 세기 또는 외부광의 온오프 시점이 상기 광정보 제공부에 저장된 외부광의 특성 정보와 상이한 경우 상기 광정보 제공부에 상기 외부광의 세기 또는 온오프 시점에 대한 정보를 변경하여 저장하는, 외부광을 반영하여 객체의 뎁스를 센싱하여 이동하는 로봇.
14. The method of claim 13,
The depth sensing module or the robot further includes an optical sensing unit,
When the intensity of the external light sensed by the optical sensing unit or the time point when the external light is turned on and off is different from the characteristic information of the external light stored in the optical information providing unit during the movement of the robot, the robot controller controls the intensity of the external light Or on and off points of the object, and stores the changed information.
KR1020170075055A 2017-06-14 2017-06-14 Method of sensing depth of object applying external light and and device implementing thereof KR20180136294A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020170075055A KR20180136294A (en) 2017-06-14 2017-06-14 Method of sensing depth of object applying external light and and device implementing thereof
PCT/KR2018/006113 WO2018230864A2 (en) 2017-06-14 2018-05-29 Method for sensing depth of object by considering external light and device implementing same
US16/622,202 US11498228B2 (en) 2017-06-14 2018-05-29 Method for sensing depth of object by considering external light and device implementing same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170075055A KR20180136294A (en) 2017-06-14 2017-06-14 Method of sensing depth of object applying external light and and device implementing thereof

Publications (1)

Publication Number Publication Date
KR20180136294A true KR20180136294A (en) 2018-12-24

Family

ID=65010336

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170075055A KR20180136294A (en) 2017-06-14 2017-06-14 Method of sensing depth of object applying external light and and device implementing thereof

Country Status (1)

Country Link
KR (1) KR20180136294A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022025658A1 (en) * 2020-07-29 2022-02-03 주식회사 우아한형제들 External light influence solution system for mobile robot and method therefor
KR20220014861A (en) * 2020-07-29 2022-02-07 주식회사 우아한형제들 System and meyhod for resolving the influence of mobile robots from outside light
WO2022102870A1 (en) * 2020-11-16 2022-05-19 삼성전자주식회사 Robot and control method therefor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022025658A1 (en) * 2020-07-29 2022-02-03 주식회사 우아한형제들 External light influence solution system for mobile robot and method therefor
KR20220014861A (en) * 2020-07-29 2022-02-07 주식회사 우아한형제들 System and meyhod for resolving the influence of mobile robots from outside light
WO2022102870A1 (en) * 2020-11-16 2022-05-19 삼성전자주식회사 Robot and control method therefor

Similar Documents

Publication Publication Date Title
US11498228B2 (en) Method for sensing depth of object by considering external light and device implementing same
US20220148321A1 (en) System and process for detecting, tracking and counting human objects of interest
CN109951936B (en) Illumination control system and method capable of being intelligently adjusted according to different application scenes
CN104050620B (en) Body detection device
US11143749B2 (en) Object detection system and method
US10783363B2 (en) Method of creating map by identifying moving object, and robot implementing the method
KR20180136294A (en) Method of sensing depth of object applying external light and and device implementing thereof
US20200089970A1 (en) Method for identifying obstacle on driving ground and robot for implementing same
KR102478335B1 (en) Image Analysis Method and Server Apparatus for Per-channel Optimization of Object Detection
GB2476869A (en) System and method for tracking and counting objects near an entrance
CN101918980A (en) Runway surveillance system and method
KR101624510B1 (en) Multi-function monitoring and tracking system for crime and fire
US20210166006A1 (en) Techniques for automatically identifying secondary objects in a stereo-optical counting system
CN105574468B (en) Video flame detection method, device and system
EP2926296A2 (en) Systems and methods to classify moving airplanes in airports
US10397497B1 (en) Solar invariant imaging system for object detection
CN110909607B (en) Passenger flow sensing device system in intelligent subway operation
KR102444568B1 (en) Method of controlling image based on illuminance sensing and robot implementing thereof
KR20180112622A (en) Method of configuring position based on identification of fixed object and moving object and robot implementing thereof
WO2018180494A1 (en) Image monitoring system, image monitoring method, and image monitoring program
CN107506758A (en) Painting Shop model recognizing method and system
JP6784254B2 (en) Retained object detection system, retained object detection method and program
KR102107298B1 (en) Image analysis apparatus and method
KR101927227B1 (en) Visibility meter applying artificial intelligence
CN112837541B (en) Intelligent traffic vehicle flow management method based on improved SSD