KR20180136294A - Method of sensing depth of object applying external light and and device implementing thereof - Google Patents
Method of sensing depth of object applying external light and and device implementing thereof Download PDFInfo
- Publication number
- KR20180136294A KR20180136294A KR1020170075055A KR20170075055A KR20180136294A KR 20180136294 A KR20180136294 A KR 20180136294A KR 1020170075055 A KR1020170075055 A KR 1020170075055A KR 20170075055 A KR20170075055 A KR 20170075055A KR 20180136294 A KR20180136294 A KR 20180136294A
- Authority
- KR
- South Korea
- Prior art keywords
- depth
- information
- unit
- external light
- sensing module
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/246—Calibration of cameras
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Manipulator (AREA)
Abstract
Description
본 발명은 외부광을 반영하여 객체의 뎁스를 센싱하는 방법 및 이를 구현하는 장치에 관한 기술이다.The present invention relates to a method of sensing the depth of an object by reflecting external light and an apparatus for implementing the method.
공항, 학교, 관공서, 호텔, 사무실, 공장, 체육관, 공연장과 같은 문화시설 등 인적, 물적 교류가 활발하게 발생하는 공간에서 로봇이 동작하기 위해서는 공간을 지속적으로 센싱하여 사물, 사람 등의 객체들을 회피하며 이동하는 것이 필요하다. 이 과정에서 로봇은 주행 과정에서 센싱하는 다양한 정보들에 기반하여 주행 경로를 설정할 수 있는데, 로봇이 주행할 공간을 비추는 외부의 광(조명, 햇빛 등)에 따라 로봇이 사물을 센싱함에 있어 영향을 받을 수 있다. In order for robots to operate in spaces where human and material exchanges are active, such as airports, schools, government offices, hotels, offices, factories, gymnasiums, and cultural facilities such as concert halls, It is necessary to move. In this process, the robot can set the traveling route based on various information sensed during the traveling process. The robot influences the sensing of the object according to the external light (illumination, sunlight, etc.) Can receive.
특히, 뎁스 정보를 취득하는 뎁스 센싱 모듈 또는 이러한 모듈이 탑재되는 뎁스 센싱 장치는 외부의 사물과의 거리를 3차원 영상 정보로 제공하는데, 이 과정에서 강한 조명 또는 햇빛과 같은 외부광의 영향을 받을 수 있다. 특히 사물이 외부광을 반사하는 경우 외부의 사물과의 거리가 실제보다 멀리 혹은 가까이 센싱되는 문제가 발생한다. Particularly, a depth sensing module for acquiring depth information or a depth sensing device on which such a module is mounted provides a distance to an external object as three-dimensional image information. In this process, strong light or an external light such as sunlight have. In particular, when an object reflects external light, a problem arises that the distance from the object to the outside is farther or closer to the actual distance.
이는 특히 공항, 학교, 관공서, 호텔, 사무실, 공장, 체육관, 공연장과 같은 문화시설 등 인적, 물적 교류가 활발하게 발생하는 공간에서 자주 발생할 수 있는 문제인데, 이러한 공간은 외부의 빛을 내부로 유입시키는 창이 크거나 내부 조명의 밝기가 강한 경우이다. 따라서, 이러한 문제점을 해결하기 위해, 본 명세서에서는 사물의 뎁스를 센싱하는 과정에서 외부광의 상태를 반영하는 방안을 제시하고자 한다.This is a problem that can often occur in spaces where human and material exchanges are active, such as airports, schools, government offices, hotels, offices, factories, gymnasiums, and cultural facilities such as concert halls. Or the brightness of the internal illumination is high. Accordingly, in order to solve such a problem, the present invention proposes a method of reflecting the state of external light in the process of sensing the depth of objects.
본 명세서에서는 전술한 문제점을 해결하기 위한 것으로, 강한 외부광으로 인한 뎁스 센싱된 정보의 왜곡을 보정하는 방법 및 장치를 제공하고자 한다.SUMMARY OF THE INVENTION In order to solve the above problems, the present invention provides a method and apparatus for correcting distortion of depth-sensitive information due to strong external light.
또한, 본 명세서에서는 강한 외부광이 발생할 수 있는 공간적, 시간적 정보를 이용하여 뎁스 센싱 정보의 정확도를 높이는 방법 및 장치를 제공하고자 한다.Also, in this specification, a method and an apparatus for enhancing the accuracy of depth sensing information using spatial and temporal information capable of generating strong external light are provided.
뿐만 아니라, 본 명세서에서는 전술한 뎁스 센싱 정보의 정확도를 높여 로봇이 안전하게 이동할 수 있는 방법 및 장치를 제공하고자 한다.In addition, the present invention aims at providing a method and an apparatus for safely moving a robot by raising the accuracy of the above-described depth sensing information.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention which are not mentioned can be understood by the following description and more clearly understood by the embodiments of the present invention. It will also be readily apparent that the objects and advantages of the invention may be realized and attained by means of the instrumentalities and combinations particularly pointed out in the appended claims.
본 발명의 일 실시예에 의한 외부광을 반영하여 객체의 뎁스를 센싱하는 방법은 뎁스 센싱 모듈의 뎁스 카메라부가 제1시점에서 센싱한 객체의 제1뎁스 정보를 저장부에 저장하는 단계, 뎁스 카메라부가 제2시점에서 센싱한 객체의 제2뎁스 정보를 저장부에 저장하는 단계, 뎁스 센싱 모듈의 센싱 데이터 필터링부가 생성된 제1뎁스 정보 및 제2뎁스 정보를 비교하여 제2뎁스 정보에서 필터링할 영역을 식별하는 단계, 및 뎁스 센싱 모듈의 제어부가 제2뎁스 정보에서 필터링 영역의 뎁스 값을 조정하는 단계를 포함한다.A method of sensing depth of an object reflecting external light according to an exemplary embodiment of the present invention includes storing a first depth information of an object sensed at a first viewpoint of a depth camera module of a depth sensing module in a storage unit, Storing the second depth information of the object sensed at the second time point in the storage unit, comparing the first depth information and the second depth information generated by the sensing data filtering unit of the depth sensing module, and filtering the second depth information from the second depth information And adjusting the depth value of the filtering region in the second depth information by the control unit of the depth sensing module.
본 발명의 다른 실시예에 의한 외부광을 반영하여 객체의 뎁스를 센싱하는 뎁스 센싱 모듈은 뎁스 정보를 저장하는 저장부, 제1시점에서 객체의 제1뎁스 정보 및 제1시점과 시간적으로 선행하거나 또는 후행하는 제2시점에서 객체의 제2뎁스 정보를 생성하는 뎁스 카메라부, 생성된 제1뎁스 정보 및 제2뎁스 정보를 비교하여 제2뎁스 정보에서 필터링할 영역을 식별하는 센싱 데이터 필터링부, 및 제2뎁스 정보에서 필터링 영역의 뎁스 값을 변경하거나 또는 제2뎁스 정보를 저장부에서 제거하는 제어부를 포함한다.The depth sensing module for sensing the depth of an object in accordance with another embodiment of the present invention includes a storage unit for storing depth information, a first depth information and a first depth information of the object at a first point in time, A depth camera unit for generating second depth information of the object at a following second viewpoint, a sensing data filtering unit for comparing the generated first depth information and the generated second depth information to identify an area to be filtered in the second depth information, And a control unit for changing the depth value of the filtering area in the second depth information or removing the second depth information from the storage unit.
본 발명의 또다른 실시예에 의한 외부광을 반영하여 객체의 뎁스를 센싱하여 이동하는 로봇은 뎁스 정보를 저장하는 저장부와, 제1시점에서 객체의 제1뎁스 정보 및 제1시점과 시간적으로 선행하거나 또는 후행하는 제2시점에서 객체의 제2뎁스 정보를 생성하는 뎁스 카메라부와 생성된 제1뎁스 정보 및 제2뎁스 정보를 비교하여 제2뎁스 정보에서 필터링할 영역을 식별하는 센싱 데이터 필터링부와 제2뎁스 정보에서 필터링 영역의 뎁스 값을 변경하거나 또는 제2뎁스 정보를 저장부에서 제거하는 제어부를 포함하는 뎁스 센싱 모듈, 외부에 배치된 객체를 센싱하는 객체 센싱 모듈, 로봇을 이동시키는 이동부, 및 뎁스 센싱 모듈 및 객체 센싱 모듈의 센싱된 결과에 기반하여 로봇 주변의 객체를 확인하여 로봇의 이동 경로를 제어하는 로봇 제어부를 포함한다.A robot for sensing depth of an object reflecting external light according to another embodiment of the present invention includes a storage unit for storing depth information, a storage unit for storing depth information of the object at a first time point, A depth camera unit for generating second depth information of an object at a second time point, which is a preceding or succeeding point, with the first depth information and the second depth information generated by the depth camera unit to identify a region to be filtered from the second depth information, A depth sensing module for changing the depth value of the filtering area or removing the second depth information from the storage part in the second depth information, an object sensing module for sensing an object disposed outside, And a robot control unit for controlling the movement path of the robot based on the sensed result of the depth sensing module and the object sensing module, The.
본 발명의 실시예들을 적용할 경우, 뎁스 카메라부(110)가 실외에서 사용하거나 햇빛 또는 조명이 많이 유입되는 공간에서 사용되거나 혹은 햇빛이 반사되는 환경에서 뎁스 값을 왜곡하여 센싱하는 경우에 이를 필터링하여 정상적인 뎁스 정보를 산출할 수 있다. When the embodiments of the present invention are applied, in the case where the
또한, 본 발명의 실시예들을 적용할 경우, 현재 위치와 상황에 따라 조명이나 햇빛 등 외부광의 발생 여부에 대한 정보에 기반하여 뎁스 값을 필터링할 것인지 여부를 확인하여 필터링 속도를 높일 수 있다.In addition, when the embodiments of the present invention are applied, it is possible to increase the filtering speed by checking whether the depth value is to be filtered based on information about whether external light such as illumination or sunlight is generated according to the current position and the situation.
본 발명의 효과는 전술한 효과에 한정되지 않으며, 본 발명의 당업자들은 본 발명의 구성에서 본 발명의 다양한 효과를 쉽게 도출할 수 있다. The effects of the present invention are not limited to the effects described above, and those skilled in the art of the present invention can easily derive the various effects of the present invention in the constitution of the present invention.
도 1은 본 발명의 일 실시예에 의한 뎁스 센싱 모듈의 구성을 보여주는 도면이다.
도 2 및 도 3은 본 발명의 일 실시예에 의한 뎁스 정보의 구성을 보여주는 도면이다.
도 4는 본 발명의 일 실시예에 의한 뎁스 센싱 모듈이 뎁스 정보를 처리하는 과정을 보여주는 도면이다.
도 5는 본 발명의 일 실시예에 의한 뎁스 센싱 모듈의 광정보 제공부의 구성을 보여주는 도면이다.
도 6은 본 발명의 일 실시예에 의한 맵 저장부의 구성을 보여주는 도면이다.
도 7은 본 발명의 일 실시예에 의한 광원주기정보부 및 컨텍스트부의 구성을 보여주는 도면이다.
도 8은 본 발명의 일 실시예에 의한 로봇의 구성을 보여주는 도면이다.
도 9는 본 발명의 일 실시예에 의한 뎁스 센싱 과정을 보여주는 도면이다.
도 10은 본 발명의 일 실시예에 의한 뎁스 정보를 뎁스 카메라부가 생성하여 이를 필터링하는 과정을 보여주는 도면이다.
도 11 및 도 12는 본 발명의 일 실시예에 의한 뎁스 센싱 모듈이 외부광의 영향을 반영하여 객체의 뎁스 값을 센싱하는 과정을 보여주는 도면이다.
도 13은 본 발명의 일 실시예에 의한 뎁스 값을 변경하는 과정을 보여주는 도면이다.
도 14는 본 발명의 일 실시예에 의한 뎁스 정보를 새로이 생성하여 저장하는 실시예를 보여주는 도면이다.
도 15는 본 발명의 일 실시예에 의한 뎁스 값의 조정 과정을 보다 상세히 보여주는 도면이다.
도 16은 본 발명의 일 실시예에 의한 센싱 데이터 필터링부가 필터링 영역을 식별하는 과정을 보여주는 도면이다.
도 17은 본 발명의 일 실시예에 의한 로봇의 이동 과정에서 센싱된 외부광 정보들을 업데이트하는 과정을 보여주는 도면이다.FIG. 1 is a block diagram of a depth sensing module according to an embodiment of the present invention. Referring to FIG.
FIG. 2 and FIG. 3 are diagrams showing a configuration of depth information according to an embodiment of the present invention.
4 is a diagram illustrating a process of processing depth information by a depth sensing module according to an exemplary embodiment of the present invention.
5 is a diagram illustrating a configuration of an optical information providing unit of a depth sensing module according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating a configuration of a map storage unit according to an embodiment of the present invention. Referring to FIG.
7 is a diagram illustrating a configuration of a light source period information unit and a context unit according to an embodiment of the present invention.
FIG. 8 is a view showing a configuration of a robot according to an embodiment of the present invention.
9 is a diagram illustrating a depth sensing process according to an embodiment of the present invention.
10 is a diagram illustrating a process of generating depth information according to an exemplary embodiment of the present invention and filtering the generated depth information.
11 and 12 are views illustrating a process of sensing a depth value of an object by reflecting the influence of external light in a depth sensing module according to an exemplary embodiment of the present invention.
13 is a flowchart illustrating a process of changing a depth value according to an exemplary embodiment of the present invention.
FIG. 14 is a diagram illustrating an example of newly generating and storing depth information according to an embodiment of the present invention.
FIG. 15 is a detailed diagram illustrating a process of adjusting a depth value according to an embodiment of the present invention. Referring to FIG.
16 is a diagram illustrating a process of identifying a filtering area by the filtering unit for sensing data according to an exemplary embodiment of the present invention.
FIG. 17 is a diagram illustrating a process of updating sensed external light information in a moving process of a robot according to an exemplary embodiment of the present invention. Referring to FIG.
이하, 도면을 참조하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings so that those skilled in the art can easily carry out the present invention. The present invention may be embodied in many different forms and is not limited to the embodiments described herein.
본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다. 또한, 본 발명의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다.In order to clearly illustrate the present invention, parts not related to the description are omitted, and the same or similar components are denoted by the same reference numerals throughout the specification. Further, some embodiments of the present invention will be described in detail with reference to exemplary drawings. In the drawings, like reference numerals are used to denote like elements throughout the drawings, even if they are shown on different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 다른 구성 요소가 "개재"되거나, 각 구성 요소가 다른 구성 요소를 통해 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In describing the components of the present invention, the terms first, second, A, B, (a), (b), and the like can be used. These terms are intended to distinguish the components from other components, and the terms do not limit the nature, order, order, or number of the components. When a component is described as being "connected", "coupled", or "connected" to another component, the component may be directly connected or connected to the other component, Quot; intervening "or that each component may be" connected, "" coupled, "or " connected" through other components.
또한, 본 발명을 구현함에 있어서 설명의 편의를 위하여 구성요소를 세분화하여 설명할 수 있으나, 이들 구성요소가 하나의 장치 또는 모듈 내에 구현될 수도 있고, 혹은 하나의 구성요소가 다수의 장치 또는 모듈들에 나뉘어져서 구현될 수도 있다.The present invention may be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. As shown in FIG.
이하, 본 명세서에서 뎁스 센싱 모듈은 모듈이 탑재된 장치, 예를 들어 로봇이 이동하는 공간에서 사물의 뎁스 영상 정보를 취득하여 사물의 거리를 산출하는 장치를 의미한다. 뎁스 센싱 모듈이 다른 장치에 탑재된 경우가 아니라 독립적인 장치로 존재할 경우 뎁스 센싱 장치라 지시될 수도 있다.In the following description, the depth sensing module refers to a device on which a module is mounted, for example, a device for acquiring depth image information of an object in a space where the robot moves and calculating the distance of the object. The depth sensing module may be referred to as a depth sensing device when it exists as an independent device instead of being mounted on another device.
한편, 본 명세서에서 뎁스 센싱 모듈이 결합하는 로봇은 특정한 목적(청소, 보안, 모니터링, 안내 등)을 가지거나 혹은 로봇이 이동하는 공간의 특성에 따른 기능을 제공하며 이동하는 장치를 포함한다. 따라서, 본 명세서에서의 로봇은 소정의 정보와 센서를 이용하여 이동할 수 있는 이동수단을 보유하며 소정의 기능을 제공하는 장치를 통칭한다. 센서는 전술한 뎁스 센싱 모듈 외에도 외부 사물의 존재 혹은 거리, 특성 등을 센싱하는 다양한 종류의 센서들을 의미한다.Meanwhile, in the present specification, the robot to which the depth sensing module is coupled includes a moving device having a specific purpose (cleaning, security, monitoring, guidance, etc.) or providing functions according to the characteristics of a space in which the robot moves. Therefore, the robot in this specification collectively refers to a device that has a moving means capable of moving using predetermined information and a sensor, and provides a predetermined function. In addition to the above-described depth sensing module, the sensor means various types of sensors that sense the presence, distance, and characteristics of an external object.
본 명세서에서 로봇은 맵을 보유하면서 이동할 수 있다. 맵은 공간에서 이동하지 않는 것으로 확인된 고정된 벽, 계단 등 고정 객체에 대한 정보를 의미한다. 또한, 주기적으로 배치되는 동적인 객체들에 대한 정보도 맵 상에 저장될 수 있다. 일 실시예로 로봇의 진행 방향을 기준으로 일정한 범위 내에 배치된 장애물들에 대한 정보도 맵 상에 저장될 수 있다. In this specification, a robot can move while holding a map. A map is information about a fixed object such as a fixed wall, a stair, or the like that has been confirmed not to move in space. In addition, information about dynamic objects that are placed periodically can also be stored on the map. In one embodiment, information about obstacles disposed within a certain range based on the traveling direction of the robot can also be stored on the map.
한편, 로봇은 맵 상에 햇빛, 조명 등과 같은 외부광에 대한 정보를 저장할 수 있다. 예를 들어 특정 시간 대, 혹은 특정 상황에서 햇빛과 같은 외부광이 강한 경우, 혹은 특정 시간에 특정 조명이 켜짐으로 인해 외부광이 발생하는 경우, 이에 대한 정보를 맵 상에 저장할 수 있다. 외부광에 대한 정보는 빛이 들어오는 방향, 빛의 세기, 시간, 혹은 주기 등에 대한 정보를 포함한다. 전술한 맵 상에 외부광의 정보를 저장하는 것은 로봇 또는 뎁스 센싱 모듈 모두에 적용될 수 있다. On the other hand, the robot can store information about external light such as sunlight, illumination, etc. on the map. For example, when external light such as sunlight is strong at a specific time or in a specific situation, or when external light is generated due to a specific lighting being turned on at a specific time, information on the external light can be stored on the map. The information about the external light includes information on the direction in which the light comes in, intensity of light, time, or cycle. Storing external light information on the above-described map can be applied to both the robot or the depth sensing module.
도 1은 본 발명의 일 실시예에 의한 뎁스 센싱 모듈의 구성을 보여주는 도면이다. 뎁스 센싱 모듈은 외부의 객체의 뎁스 정보를 1차적으로 생성하는 뎁스 카메라부(110), 그리고 외부광의 영향을 계산하여 1차적으로 생성된 뎁스 정보에서 필터링할 영역을 식별하는 센싱 데이터 필터링부(120), 뎁스 정보가 저장되는 저장부(130), 그리고 필터링할 영역에 이전 혹은 이후의 뎁스 정보를 적용하여 새로운 뎁스 정보를 생성하는 제어부(150)를 포함한다. FIG. 1 is a block diagram of a depth sensing module according to an embodiment of the present invention. Referring to FIG. The depth sensing module includes a
또한, 뎁스 센싱 모듈이 위치한 지점에서의 외부광의 특성 정보를 제공하는 광정보 제공부(140)를 더 포함할 수 있다. 광정보 제공부(140)는 뎁스 센싱 모듈(100)의 위치 또는 이동 속도 등을 반영하여 현재 위치 또는 진입하는 위치의 광정보를 제공할 수 있다. 추가적으로 외부광을 센싱하는 광센싱부(111)가 배치될 수 있다. 광센싱부(111)는 이동 과정에서 센싱한 광의 세기 혹은 그외 특성을 광정보 제공부(140)에 업데이트하거나 저장할 수 있다. The apparatus may further include an optical
보다 상세히 살펴보면, 뎁스 카메라부(110)가 제1시점에서 객체의 제1뎁스 정보 및 제1시점과 시간적으로 선행하거나 또는 후행하는 제2시점에서 객체의 제2뎁스 정보를 생성하여 저장부(130)에 저장한다. In more detail, the
그리고 센싱 데이터 필터링부(120)는 제1뎁스 정보 및 상기 제2뎁스 정보를 비교하여 제2뎁스 정보에서 필터링할 영역을 식별한다. 필터링 영역의 식별에 대해서는 후술한다. 그리고 제어부(150)는 제2뎁스 정보에서 필터링 영역의 뎁스 값을 변경하거나 또는 제2뎁스 정보를 저장부(130)에서 제거하여 뎁스 정보가 정확하게 산출될 수 있도록 한다. The sensing
도 1의 구성요소에서 뎁스 센싱 모듈이 단일한 장치가 아니라 다른 장치, 예를 들어 로봇 등에 결합한 장치인 경우 일부 구성요소들은 로봇에 구현될 수 있다. 예를 들어 광정보 제공부(140)는 뎁스 센싱 모듈(100)에 포함될 수도 있고 뎁스 센싱 모듈(100)이 결합한 다른 장치인 로봇에 포함될 수 있다. 후자의 경우 제어부(150)는 로봇으로부터 광정보와 위치정보를 제공받을 수 있으며 이를 다시 센싱 데이터 필터링부(120)에 제공하거나 혹은 뎁스 정보에서 광의 영향을 제거한 새로운 뎁스 정보를 생성하는데 이용할 수 있다. In the components of FIG. 1, some components may be implemented in a robot when the depth sensing module is a device other than a single device, for example, a robot or the like. For example, the optical
본 발명의 실시예에서는 뎁스 센싱 모듈이 일정한 시간 동안 순차적으로 뎁스 정보를 큐(queue)와 같은 방식으로 저장부(130)에 저장하고, 이들 저장된 뎁스 정보들 중에서 외부광의 영향을 강하게 받은 뎁스 정보에 대해서는 이를 가비지(garbage) 값으로 판단하여 이를 사용하지 않는다. 이 과정에서 뎁스 센싱 모듈이 이동하는 속도, 예를 들어 뎁스 센싱 모듈의 이동 속도 또는 뎁스 센싱 모듈이 장착된 로봇의 이동 속도를 반영할 수 있다.In the embodiment of the present invention, the depth sensing module sequentially stores depth information in a
도 2 및 도 3은 본 발명의 일 실시예에 의한 뎁스 정보의 구성을 보여주는 도면이다. 뎁스 정보(10)는 하나의 프레임에서 촬영된 뎁스 영상의 뎁스 셀 별 뎁스 값들을 구분하여 저장한 것을 의미한다. 또한, 뎁스 정보(10)는 저장부(130)에 저장되며, 상이한 시점에 촬영된, 즉 다수의 시점의 프레임에 대응하여 저장된 뎁스 정보들이 저장부(130)에 다수 저장될 수 있다. FIG. 2 and FIG. 3 are diagrams showing a configuration of depth information according to an embodiment of the present invention. The
일 실시예로, 특정 시점에 촬영한 영상의 각 x-y 좌표의 뎁스값으로 구성될 수 있다. 예를 들어 뎁스 카메라부(110)가 특정 시점의 뎁스 영상, 즉 특정 시점의 프레임에 대응하여 가로로 max_x개, 세로로 max_y개로 분할된 뎁스 셀들에 대해 각각 뎁스 값을 산출할 수 있다. 일 실시예로 뎁스 영상에서 각 셀은 하나의 픽셀을 지시할 수 있다. 뎁스 셀(depth cell)은 픽셀 또는 이보다 더 큰 범위를 포함하여 하나의 뎁스 값이 산출되는 단위를 지시한다. 뎁스 셀의 크기는 뎁스 카메라부(110)가 산출하는 뎁스 영상의 해상도에 따라 증감할 수 있다. 뎁스 정보(10)의 상측의 숫자는 x 좌표를, 좌측의 숫자는 y좌표를 지시한다. In one embodiment, the depth value of each x-y coordinate of an image photographed at a specific point in time may be configured. For example, the
하나의 뎁스 셀은 하나의 뎁스 값을 가진다. 따라서, x, y 좌표 상으로 정의되는 하나의 뎁스 셀의 값은 다음과 같이 표시될 수 있다. One depth cell has one depth value. Therefore, the value of one depth cell defined on the x, y coordinates can be expressed as follows.
Depth Value : 61.3 (X:15, Y: 25) : Frame Number: 52Depth Value: 61.3 (X: 15, Y: 25): Frame Number: 52
프레임 넘버(Frame Number)는 하나의 뎁스 영상을 식별하는 식별 정보가 될 수 있다. 뎁스 값(Depth Value)은 특정 프레임의 X, Y로 지시되는 뎁스 셀의 뎁스 값을 제시한다. The frame number may be identification information for identifying one depth image. The depth value indicates a depth value of a depth cell indicated by X and Y of a specific frame.
도 3에 제시된 바와 같이, 뎁스 카메라부(110)가 생성하는 프레임 별 뎁스 영상의 뎁스 정보는 계속 변화할 수 있다. 일 실시예로, 뎁스 정보를 구성하는 특정 뎁스 셀의 뎁스 값은 계속 바뀔 수 있다. 일 실시예로, (x, y)가 1, 2인 뎁스 셀(15a, 15b, 15c)의 뎁스 값이 매 프레임 별로 변화할 수 있다. 물론 다른 뎁스 셀의 뎁스 값 역시 변화할 수 있다. 정리하면, 뎁스 정보는 뎁스 센싱 모듈(100)이 취득한 하나의 프레임, 즉 한 시점에서 촬영한 뎁스 이미지를 구성하는 뎁스 값들의 집합을 의미한다. As shown in FIG. 3, the depth information of the depth image for each frame generated by the
도 3에 제시된 바와 같이, 첫번째 프레임의 뎁스 정보(11)와 두번째 프레임의 뎁스 정보(12)와 사이에서는 모든 뎁스 셀의 뎁스 값이 일괄적으로 1씩 증가하였다. 반면 두번째 프레임의 뎁스 정보(12)와 세번째 프레임의 뎁스 정보(13) 사이에는 (x, y)가 1, 2인 뎁스 셀의 뎁스 값이 큰 차이가 발생하였음을 알 수 있다. As shown in FIG. 3, the depth values of all depth cells are increased by 1 at a time between the
즉, 15a에서 557, 15b에서 558, 그리고 15c에서 795로 큰 폭의 차이가 있다. 다른 뎁스 셀의 뎁스 값은 세 개의 프레임에서 일률적으로 1씩 증가한 것이므로, 뎁스 센싱 모듈(100)의 제어부(150)는 15c의 뎁스 값은 외부광으로 인한 가비지 값으로 판단될 수 있다. That is, there is a large difference from 15a to 557, 15b to 558, and 15c to 795. Since the depth value of the other depth cell is uniformly increased by one in three frames, the
센싱 데이터 필터링부(120)는 누적된 뎁스 정보들 중에서 뎁스 값의 변화가 미리 설정된 기준 보다 큰 경우 이를 분석하여 외부광의 영향으로 인한 가비지 값인 경우 뎁스 값을 시간적으로 이전 또는 이후의 프레임, 즉 시간적으로 이전 또는 이후의 뎁스 영상의 뎁스 정보에서 해당 셀의 뎁스 값을 추출하여 이를 변환시켜 외부광으로 인한 가비지 값을 제거하고 실제 객체들의 뎁스 값이 반영된 뎁스 정보를 산출할 수 있다. The sensing
또한, 뎁스 값의 급격한 변화가 실제 객체이 갑자기 등장하여 뎁스값의 변화가 발생할 수 있으므로, 광정보 제공부(140)는 뎁스 값의 큰 변화가 가비지 값에 의한 것인지 여부를 판단하는데 필요한 정보를 제공하며, 이를 반영하여 센싱 데이터 필터링부(120)가 뎁스 셀의 뎁스 값의 변화를 필터링할 수 있다. Also, since a sudden change in the depth value may cause a sudden appearance of a real object, a change in the depth value may occur. Therefore, the optical
도 4는 본 발명의 일 실시예에 의한 뎁스 센싱 모듈이 뎁스 정보를 누적하여 저장하는 과정에서 뎁스 정보 내의 뎁스 값을 필터링하는 과정을 보여주는 도면이다. 도 4는 뎁스 센싱 모듈이 일정한 시간 동안 N 개의 뎁스 정보를 센싱하여 그 중에서 외부광의 영향으로 뎁스 정보에 오류가 있는 것을 식별하여 이를 보정하거나 제거하는 등의 작업을 수행할 수 있다. 4 is a diagram illustrating a process of filtering a depth value in depth information in a process of accumulating depth information in a depth sensing module according to an embodiment of the present invention. 4, the depth sensing module senses N depth information for a predetermined time, identifies an error in the depth information due to external light, and corrects or removes the depth information.
뎁스 센서인 뎁스 카메라부(110)는 N개의 뎁스 정보들(뎁스 데이터들)을 저장부에 저장한다(S21). 예를 들어 N은 1 이상의 자연수가 될 수 있다. 예를 들어 5개의 뎁스 정보들을 큐(queue)의 방식으로 저장부(130)에 저장할 수 있다. The
한편, 제어부(150)는 센싱 모듈의 현재 위치에 대응하는 외부광의 특성, 뎁스 센싱 모듈의 이동 속도 등 외부 환경 정보를 취득한다(S22). 제어부(150)는 외부 환경 정보는 광정보 제공부(140)를 통해 취득하거나 혹은 뎁스 센싱 모듈(100)이 결합한 다른 장치, 예를 들어 로봇으로부터 취득할 수 있다.Meanwhile, the
센싱 데이터 필터링부(120) 외부 환경 정보를 반영하여 N개의 뎁스 정보들에서 뎁스 값의 변화가 일정 범위 이상인 영역을 필터링 영역으로 식별한다(S23). 예를 들어, 센싱 데이터 필터링부(120)가 5개의 큐를 검사하여 뎁스 정보의 각 뎁스 셀 별로 비교하여 뎁스 값이 일정 거리(예를 들어 100 mm) 이상 차이가 발생할 경우 이를 가비지 값으로 판단하여 사용하지 않는다.The sensed
또한, 이렇게 차이가 크게 발생한 영역들을 필터링 영역으로 식별한다. 전술한 기준이 되는 거리는 뎁스 센싱 모듈의 이동 속도와 뎁스 정보들이 생성된 시간 등을 고려하여 산출될 수 있다. 예를 들어, 뎁스 센싱 모듈이 장착된 로봇의 이동속도 500mm/s 이고 사람의 이동속도가 1000mm/s인 것으로 가정할 때, 1초에 1500mm의 거리 차이가 발생할 수 있다. 그런데 뎁스 카메라부(110)가 만약 33mm/s 주기로 뎁스 정보를 생성한다면, 이는 1초에 약 30번의 뎁스 정보를 생성하는 것을 의미한다. 왜냐하면 1500mm/30 = 약 50mm/frame 이기 때문이다. In addition, regions with large differences are identified as filtering regions. The reference distance may be calculated in consideration of the moving speed of the depth sensing module and the time at which the depth information is generated. For example, assuming that the moving speed of the robot equipped with the depth sensing module is 500 mm / s and the moving speed of the person is 1000 mm / s, a distance difference of 1500 mm per second may occur. However, if the
따라서, 하나의 프레임의 뎁스 정보는 이전 프레임 혹은 이후 프레임의 뎁스 정보와 비교할 때, 50mm 이상의 차이가 발생하기가 어려우므로, 뎁스 값의 변화가 크게 발생할 경우, 센싱 데이터 필터링부(120)는 객체의 뎁스값이 아니라 외부광의 세기가 변화하여 뎁스 값이 변화한 것으로 판단할 수 있다. Therefore, when the depth information of one frame is compared with the depth information of the previous frame or the subsequent frame, it is difficult for the difference of 50 mm or more to be generated. Therefore, when the depth value changes significantly, the sensing
또한, 보다 정확도를 높이기 위해 뎁스 센싱 모듈(100)이 위치한 공간이 햇빛 또는 조명의 영향을 많이 받는 공간인지를 제어부(150)가 파악하여 이를 센싱 데이터 필터링부(120)에게 제공할 수 있다. 이 경우, 뎁스 센싱 모듈(100) 또는 뎁스 센싱 모듈(100)이 장착된 로봇이 특정한 장소 및/또는 특정한 시간에 위치할 경우 외부광에 영향받은 뎁스 값을 필터링할 수 있으며, 이는 외부광의 영향을 뎁스 값에서 제거하여 로봇의 이동 과정에서 외부 장애물을 식별하도록 제어 및 운행함으로써 비효율적인 장애물 검출로 인한 로봇 이동의 지연(delay)를 없앨 수 있다.In order to increase the accuracy, the
이후 제어부(150)는 필터링 영역을 구성하는 뎁스 셀들의 뎁스 값을 저장부(130)에 저장된 다른 뎁스 정보를 이용하여 설정한다. Then, the
도 5는 본 발명의 일 실시예에 의한 뎁스 센싱 모듈을 구성하거나 혹은 뎁스 센싱 모듈이 탑재된 로봇을 구성하는 광정보 제공부의 구성을 보여주는 도면이다. 광정보 제공부(140)는 뎁스 센싱 모듈(100)이 센싱한 뎁스 정보에서 가비지 값을 제거하기 위해 필요한 외부 환경 정보를 확인하기 위한 것으로 뎁스 센싱 모듈이 이동하는 공간에서 빛의 반사나 빛의 발산 등에 대한 정보를 제공한다. 또한 뎁스 센싱 모듈(100)은 이동 과정에서 센싱한 외부의 빛이 일정 크기 이상의 세기를 가지거나 외부의 빛이 주기적으로 센싱될 경우 광정보 제공부(140)에 외부광에 대한 정보를 업데이트할 수 있다.5 is a diagram illustrating a configuration of an optical information providing unit constituting a depth sensing module according to an embodiment of the present invention or a robot equipped with a depth sensing module. The optical
주요 구성요소를 살펴보면, 뎁스 정보를 생성하는 공간의 고정 객체의 위치 및 외부광의 반사 또는 투과 정보가 저장된 맵 저장부(141), 외부광이 온오프하는 주기 정보가 저장된 광원주기정보부(145), 그리고 외부광이 온오프하는 컨텍스트가 저장된 컨텍스트부(146)로 구성된다. A
맵 저장부(141)는 뎁스 센싱 모듈(100)이 이동하는 공간의 벽이나 창문, 그리고 광원의 위치에 대한 정보를 저장한다. 특히, 공간의 벽 등은 빛의 반사정도에 대한 정보를 함께 저장하여 뎁스 센싱 모듈(100)이 반사된 빛의 세기를 반영하여 뎁스 정보를 처리할 수 있도록 한다. 광원의 위치는 추가적으로 광원의 빛의 세기, 예를 들어 조도, 광원의 색상 등이 포함될 수 있다. 공간에서 벽 사이에 공간이 있는 경우 이는 유리로 판단할 수 있다. 이들 유리의 빛 투과도에 대한 값도 맵 저장부(141)에 저장될 수 있다. The
광원주기정보부(145)는 특정 광원이 온오프하는 주기에 대한 정보이다. 예를 들어, 광원은 매일, 하루종일 켜져있는 경우가 있다. 또한, 다른 광원의 경우, 오후 시간 혹은 저녁 시간에만 켜져있는 경우가 있다. 광원주기정보부(145)는 광원이 켜지고 꺼지는 주기에 대한 정보를 저장하여, 광원이 꺼진 경우에는 외부광의 영향이 없는 것으로 뎁스 센싱 모듈(100)이 판단할 수 있다.The light source
컨텍스트부(147)는 광원의 온오프하는 상황에 대한 컨텍스트(context) 정보 또는 창문으로 태양광이 들어오는 컨텍스트 정보 등 광원의 주기 정보에 포함되지 않는 컨텍스트 정보를 저장한다. 일 실시예로, 창문으로 태양광이 들어올 수 있는 컨텍스트로 계절이나 날씨와 연계되는 정보가 저장될 수 있다. 또한, 공간의 광원들이 특정한 조건에 따라 켜지거나 꺼지는 경우 이에 대한 컨텍스트 정보가 컨텍스트부(147)에 저장될 수 있다. 예를 들어 공항인 경우 특정한 비행 스케줄에 대응하여 켜지거나 꺼지는 광원의 온/오프 조건이 컨텍스트부(147)에 저장될 수 있다. 또는 특정한 날씨에 대응하여 켜지거나 꺼지는 광원의 온/오프 조건이 컨텍스트부(147)에 저장될 수 있다. The
따라서, 뎁스 센싱 모듈(100)은 현재 이동하는 공간의 광원에 대한 정보와 이들 광원이 켜지거나 꺼지는 환경인지를 확인하고 이를 반영하여 뎁스 정보에서 가비지 값을 제거할 수 있다. Accordingly, the
도 6은 본 발명의 일 실시예에 의한 맵 저장부의 구성을 보여주는 도면이다. FIG. 6 is a diagram illustrating a configuration of a map storage unit according to an embodiment of the present invention. Referring to FIG.
맵 저장부(141a)는 일종의 비트맵과 같이 구성할 수 있다. 이미지 파일의 비트맵에서 각 비트가 하나의 단위 영역을 나타내도록 구성할 수 있다. 각 단위 영역은 좌측 하단을 (0, 0)으로, 우측 상단을 (19, 19)로 지시할 수 있다. 또한, 도 6의 141a은 20x20 구조의 데이터 구조를 가질 수 있다. 예를 들어, 각 위치에 대해 객체가 배치되는지 여부에 대한 정보를 포함할 수 있다. 일종의 행렬과 같이 정보를 배치하고, 고정 객체가 배치되는 경우에는 해당 행렬의 값을 미리 설정된 값으로 설정할 수 있다.The
또한, 맵 저장부(141a)는 고정 객체들이 가지는 빛의 반사 혹은 투과 속성에 대한 특성 정보를 저장할 수 있는데, 객체에 대한 특성 정보는 범주로 분류하여 구분하여 맵 저장부(141a)에 저장될 수 있다. 도 6의 맵 저장부(141a)에서 검은 색으로 표시된 부분은 빛의 반사도(reflective)의 값이 10으로 빛의 반사도가 낮은 속성의 객체임을 보여준다. In addition, the
그 외 212로 지시되는 고정 객체는 빛의 반사도가 30으로 외부광을 30%로 반사함을 보여준다. 213a, 213b로 지시되는 고정 객체는 빛의 반사도가 70으로 외부광을 70%로 반사함을 보여준다. 고정 객체의 빛의 반사도에 대한 범주는 다양하게 설정될 수 있으며, 본 발명이 이들에 한정되는 것은 아니다. In addition, the fixed object indicated by 212 shows that the reflectance of light is 30, and the external light is reflected by 30%. The fixed object indicated by 213a and 213b shows that the reflectance of light is 70 and the external light is reflected by 70%. The category of the light reflectivity of the fixed object can be variously set, and the present invention is not limited thereto.
한편, 고정객체들 사이에 T와 숫자로 결합된 부분은 빛의 투과도를 보여준다. 예를 들어, 211a에서 지시하는 "T9"는 빛을 90% 이상 투과시키는 투명 재질의 고정객체, 예를 들어 투명한 유리창이 배치되는 것을 지시한다. 그 결과 태양이 떠오르는 시간 및 해당 방향에서 211a의 주변으로 뎁스 센싱 모듈(100)이 이동할 경우, 햇빛이 뎁스 정보의 산출에 영향을 미치는 것을 뎁스 센싱 모듈(100)이 확인할 수 있다. On the other hand, the portion of the fixed objects that are joined by T and the number shows the light transmission. For example, "T9 " indicated by 211a indicates that a transparent object, such as a transparent window, of a transparent material that transmits light at 90% or more is disposed. As a result, the
211b에서 지시하는 "T5"는 빛을 50% 투과시키는 반투명 재질의 고정객체, 예를 들어 반투명한 유리창이 배치되는 것을 의미한다. Quot; T5 "indicated by 211b means that a fixed object of semitransparent material, for example, translucent glass window, through which light is transmitted at 50% is disposed.
맵 저장부(141a)에 L1 또는 L3는 천장에서 빛이 들어올 수 있는 공간 또는 조명이 배치된 지점에 표시된다. L1 또는 L3와 같은 것은 천장의 창문 혹은 조명들을 그룹핑 지은 라벨링이 될 수 있으며, 일 실시예로 조명의 조도가 되거나 창문의 투과도에 의한 빛의 세기 혹은 특정한 범주의 조명들의 그룹명이 될 수 있다.In the
L1, L3 등이 천장의 창문을 통해 유입되는 햇빛의 세기 또는 조명의 조도를 나타낼 경우, 이들을 범주화시켜 나눌 수 있는데, 일 실시예로 1~5 까지 범주화 시킬 수 있으며, 도 6의 실시예는 "1"이라는 범주에 해당하는 세기의 외부광(L1)과 "3"이라는 범주에 해당하는 세기의 외부광(L3)이 표시된 것으로 볼 수 있다. L1, L3, and the like represent the intensity of the sunlight or illumination of the light entering through the windows of the ceiling, they can be categorized and categorized, which can be categorized from 1 to 5 in one embodiment, (L1) of the intensity corresponding to the category "1" and the external light (L3) of the intensity corresponding to the category "3" are displayed.
일 실시예로 천장이 투명한 유리인 경우에는 빛의 투과도가 높은 것으로 그룹핑할 수 있고, 천장이 불투명한 유리인 경우에는 빛의 투과도가 낮은 것으로 그룹핑할 수 있다.In an embodiment, when the ceiling is transparent glass, it can be grouped into a group having a high light transmittance, and when the ceiling is opaque glass, grouping can be performed with a low light transmittance.
또다른 실시예로, 외부광의 세기 또는 조명의 조도 외에도 조명들을 그룹핑 지어서 범주화시킬 수도 있다. 예를 들어, 동시에 켜지거나 꺼지는 조명들을 그룹핑하여 이들을 범주화 시켜서 L1, L2 와 같이 라벨링할 수 있다. In yet another embodiment, the lights may be grouped and categorized in addition to the intensity of external light or illumination illumination. For example, groups of lights that are turned on or off at the same time can be categorized and labeled as L1, L2.
L1, L3 등이 천장의 창문을 통해 유입되는 햇빛의 세기 또는 조명의 그룹을 나타내거나 조명의 조도를 나타내는 등 외부광의 특정한 정보를 제공하는 반면, 보다 상세한 외부광의 정보, 예를 들어, 햇빛이 비치는 시간이나 햇빛이 비치는 컨텍스트(날씨, 위도, 경도 등) 조명들이 켜지고 꺼지는 온오프 주기 혹은 온오프하는 컨텍스트(특정 공간에서 불이 켜지는 조건 등)에 대한 정보는 도 7의 광원주기정보부(145) 및 컨텍스트부(147)에 저장될 수 있다. L1, L3, etc. provide specific information of external light, such as representing the intensity of sunlight entering through the windows of a ceiling or a group of lights or indicating the illuminance of illumination, while more detailed external light information, e.g., The information on the on-off period or the on-off context (such as a lighting condition in a specific space) in which the contexts (weather, latitude, longitude, etc.) And the
도 6에서 바닥의 재질이 빛을 반사하는 정도에 대한 정보도 맵 저장부(141)에 저장될 수 있는데, 예를 들어, 하기의 표와 같이 맵 저장부(141a)의 특정한 영역 별로 바닥의 빛의 반사도에 대한 정보를 저장할 수 있다.6, information about the degree of reflection of light by the material of the floor may also be stored in the
표 1에서는 (0, 0)을 좌하단 영역, (19, 19)를 우상단 영역으로 하는 바닥의 빛 반사가 "50"이라는 범주에 해당함을 보여준다. 이는 뎁스 센싱 모듈(100)이 센싱된 뎁스 값을 필터링하는 과정에서 바닥에서 빛이 반사될 수 있다는 정보를 반영할 수 있다. 이와 달리 공간을 세분화하여 표 2와 같이 바닥의 반사 정보를 제시할 수 있다. Table 1 shows that (0, 0) corresponds to the bottom left region, and (19, 19) to the top right region corresponds to the category "50". This may reflect information that light may be reflected from the floor in the process of filtering the depth value sensed by the
로봇 또는 뎁스 센싱 모듈은 표 2에서 첫번째 영역((0, 0) ~ (19, 10))으로 이동할 경우에는 반사도가 50이라는 정보를 반영하여 천장의 조명의 반사 정도가 50에 대응하는 범주에 속하는 공간에서 뎁스 정보를 필터링할 수 있다. 또한, 두번째 영역((0, 11)~(19, 19))으로 이동할 경우에는 반사도가 20이라는 정보를 반영하여 천장의 조명의 반사 정도가 20에 대응하는 범주에 속하는 공간에서 뎁스 정보를 필터링할 수 있다.When the robot or the depth sensing module moves from the first region ((0, 0) to (19, 10)) in Table 2, the reflection degree of the ceiling is reflected in the category of 50 The depth information can be filtered in space. When moving to the second area ((0, 11) to (19, 19)), the depth information is filtered in the space belonging to the category corresponding to the degree of reflection of the ceiling light by reflecting the information that the reflectivity is 20 .
도 7은 본 발명의 일 실시예에 의한 광원주기정보부 및 컨텍스트부의 구성을 보여주는 도면이다. 광원주기정보부(145a)는 도 6에서 그룹화시킨 외부광들, 즉 햇빛이 비치거나 조명들이 켜지는 주기에 대해 제시한다. L1이라는 외부광(햇빛 또는 조명 등)은 위치에 상관없이(POS 필드가 ALL) 월요일에서 금요일(Day 필드)까지 06:00~22:00 시간동안(Time 필드) 켜지도록 주기가 설정된다. 한편, L3로 그룹핑된 외부광(햇빛 또는 조명 등)은 토요일과 일요일에 정해진 시간(10:00~17:00) 동안 켜지도록 주기가 설정된다. 7 is a diagram illustrating a configuration of a light source period information unit and a context unit according to an embodiment of the present invention. The light source
요일이나 날짜 별로 시간이 정해진 경우는 조명에 해당할 수 있으며, 햇빛의 경우 일몰/일출 시간이 적용될 수 있다. 컨텍스트부(147a)는 광원주기에 추가하여 햇빛이 비치거나 조명이 켜지거나 또는 꺼지는 조건, 즉 컨텍스트 정보를 제시한다. 주로 조명에 적용되지만, 햇빛과 같이 날씨 정보를 결합하여 컨텍스트 정보를 구성할 수도 있다. If the time is set by day or by day, it may correspond to lighting, and in the case of sunlight, sunset / sunrise time may apply. The
L1이라는 광원들 중에서 (7, 17)의 위치(도 6에서 15로 지시되는 위치)에 배치된 조명은 외부 날씨에 따라 꺼지거나 켜지도록 조정될 수 있다. 왜냐하면 도 6의 15의 L1 광원은 외부의 빛을 투과시키는 투명한 재질의 고정객체(211a)가 배치되어 있기 때문이다. 따라서, 147a에 제시된 바와 같이 "Sunny_Weather"에서 조명을 끄며(OFF), "Night / Rainy_weather" 상황에서 조명을 켜는(ON) 컨텍스트 정보가 저장될 수 있다. L3 광원들은 모두 해당 공간이 붐빌 경우(Crowded)에 켜지도록(ON) 설정될 수 있다. 그리고 토요일과 일요일에는 꺼지도록(OFF) 설정될 수 있다. The lights arranged at the positions (positions indicated by 15 in Fig. 6) of the light sources of Ll (7, 17) can be adjusted to be turned off or on according to the external weather. This is because the L1 light source of FIG. 6 is provided with a
도 6 및 도 7의 정보들에 기반하여 뎁스 센싱 모듈(100) 또는 뎁스 센싱 모듈(100)이 탑재된 로봇이 이동하는 과정에서 빛에 의한 영향을 받는 구간을 지나갈 때, 로봇의 현재 위치와 시간을 맵 저장부(141)에 등록하고, 이후 로봇 또는 뎁스 센싱 모듈(100)이 햇빛이나 조명의 영향을 받는 구간을 누적하여 학습하고 동일 시간에 동일한 장소를 이동할 때, 햇빛 또는 조명의 영향을 제거하는 필터를 활성화 시켜서 외부광의 영향을 제거하여 정확한 뎁스 정보를 산출한다. 6 and 7, when a robot mounted with the
필터를 활성화 시킨다는 것은 도 1의 센싱 데이터 필터링부(120)가 뎁스 정보에서 가비지 값을 필터링하도록 하며, 일 실시예로 누적된 뎁스 정보에서 각 뎁스 셀들의 뎁스 값들을 비교하여 장애물인지 외부광에 의한 뎁스 값의 오류인지를 판단할 수 있다. 이 과정에서 누적된 뎁스 정보가 늘어날 경우 뎁스 값이 가비지 값인지에 대한 판단의 정확도를 높일 수 있는데, 이는 뎁스 정보를 확인하는데 있어 일종의 지연(delay)가 발생할 수 있다. Activation of the filter means that the sensing
그러나, 뎁스 센싱 모듈(100) 또는 로봇의 이동 속도, 로봇의 장애물 대응 능력 등을 반영하여 로봇이 장애물을 판단하는데 있어 문제가 발생하지 않을 만큼의 지연 시간 내에 뎁스 정보에서 가비지 값을 필터링할 수 있도록 뎁스 센싱 모듈(100)을 구성할 수 있다. 이 과정에서 보다 빠른 필터링 효과를 위해 전술한 광정보 제공부(140)를 구성하는 정보들이 학습을 통해 업데이트 되어 필터링의 정확성을 높일 수 있다. However, in order to filter the garbage value in the depth information within a delay time that the robot does not cause a problem in judging the obstacle by reflecting the moving speed of the
도 8은 본 발명의 일 실시예에 의한 로봇의 구성을 보여주는 도면이다. 로봇(1000)은 앞서 살펴본 뎁스 센싱 모듈(100)을 포함한다. 또한 광정보 제공부(140)가 로봇(1000)을 구성하는데, 뎁스 센싱 모듈(100)로부터 독립적으로 로봇(1000)의 구성요소가 될 수 있다. 한편, 로봇(1000)이 이동하는데 있어 외부의 객체들을 센싱하는데 필요한 객체 센싱 모듈(190), 그리고 로봇(1000)을 이동시키는 이동부(300)와 특정한 기능을 수행하는 기능부(400), 그리고 통신부(500)가 제시된다. FIG. 8 is a view showing a configuration of a robot according to an embodiment of the present invention. The
도 8은 로봇의 구성을 계층적으로 구성하고 있으나, 이는 로봇의 구성요소들을 논리적으로 나타낸 것에 의해서이며, 물리적 구성은 이와 다를 수 있다. 하나의 물리적 구성요소에 다수의 논리적 구성요소가 포함되거나, 다수의 물리적 구성요소가 하나의 논리적 구성요소를 구현할 수 있다. 또한, 반드시 도 8의 계층이 유지될 필요는 없다. 8 shows the configuration of the robot hierarchically, but this is due to the logical representation of the components of the robot, and the physical configuration may be different. A plurality of logical components may be included in one physical component or a plurality of physical components may be implemented in a single logical component. Also, the hierarchy of FIG. 8 does not necessarily have to be maintained.
객체 센싱 모듈(190)은 외부의 객체들을 센싱하여 센싱한 정보를 로봇 제어부(900)에게 제공한다. 일 실시예로 객체 센싱 모듈(190)은 로봇의 현재 위치에서 벽, 유리, 금속성 문 등 외부 객체들의 재질과 거리를 신호의 강도(intensity)와 반사된 시간(속도)로 산출하는 라이다(Lidar) 센싱부(191)를 포함할 수 있다. 또한, 객체 센싱 모듈(190)은 로봇의 외부 객체의 영상을 취득하는 비전 센싱부(192)를 더 포함할 수 있다. The
비전 센싱부(192)는 카메라를 포함할 수 있다. 비전 센싱부(192)는 로봇의 주변의 객체들의 이미지를 촬영할 수 있다. 특히, 로봇은 고정 객체와 같이 변화가 많지 않은 이미지와 이동 객체가 배치된 이미지를 구분하여 외부의 객체가 이동 객체인지를 식별할 수 있다. The
또한, 추가적으로 객체 센싱 모듈(190)은 로봇(1000)으로부터 일정 거리 내에 배치된 객체들의 존재 여부를 센싱하는 초음파 센싱부(193)를 포함할 수 있다. 초음파 센싱부(193)는 로봇(1000)으로부터 일정 거리 내에 객체들이 존재하는지를 판단한 정보를 제공한다. In addition, the
그 외에도 열감지 센싱부, 초음파 센싱부 등을 일 실시예로 하는 보조 센싱부(194)가 다수 배치될 수 있다. 이들 보조 센싱부들은 맵을 생성하거나 외부 객체를 센싱하는데 필요한 보조적인 센싱 정보를 제공한다. 또한, 이들 보조 센싱부들 역시 로봇이 주행함에 있어 외부에 배치된 객체를 센싱하여 정보를 제공한다.In addition, a plurality of
센싱 데이터 분석부(195)는 다수의 센싱부들이 센싱한 정보들을 분석하여 이를 로봇 제어부(900)에게 전달한다. 예를 들어 다수의 센싱부들에 의해 로봇의 주변에 배치된 객체가 감지될 경우, 해당 객체의 특성과 거리에 대한 정보를 각각의 센싱부가 제공할 수 있다. 센싱 데이터 분석부(195)는 이들의 값을 조합하여 산출하고 이를 로봇 제어부(900)에게 전달할 수 있다. The sensing
로봇 제어부(900)는 센싱된 거리 정보를 뎁스 센싱 모듈(100)에 제공하여 뎁스 정보를 필터링 하는 과정에서 참조할 수 있도록 한다. 예를 들어, 5미터 이내에 사물이 존재하지 않는 것으로 센싱 데이터 분석부(195)가 로봇 제어부(900)에게 정보를 제공하고, 로봇 제어부(900)가 이러한 정보를 뎁스 센싱 모듈(100)에게 제공했는데, 뎁스 센싱 모듈(100)이 생성한 뎁스 정보에 5미터 이내의 뎁스 값이 센싱되면 뎁스 센싱 모듈(100)은 해당 뎁스 셀이 외부광에 의해 왜곡된 것인지 여부를 확인하여 필터링할 수 있다.The
이동부(300)는 바퀴와 같이 로봇(1000)을 이동시키는 수단으로, 로봇 제어부(900)의 제어에 따라 로봇(1000)을 이동시킨다. 이때, 로봇 제어부(900)는 맵 저장부(141)에 저장된 영역에서 로봇(1000)의 현재 위치를 확인하여 이동부(300)에 이동 신호를 제공할 수 있다. 로봇 제어부(900)는 맵 저장부(141)에 저장된 다양한 정보들을 이용하여 경로를 실시간으로 생성하거나 혹은 이동 과정에서 경로를 생성할 수 있다. The moving
기능부(400)는 로봇의 특화된 기능을 제공하는 것을 의미한다. 예를 들어, 청소 로봇인 경우 기능부(400)는 청소에 필요한 구성요소를 포함한다. 안내 로봇인 경우 기능부(400)는 안내에 필요한 구성요소를 포함한다. 보안 로봇인 경우 기능부(400)는 보안에 필요한 구성요소를 포함한다. The
기능부(400)는 로봇이 제공하는 기능에 따라 다양한 구성요소를 포함할 수 있으며, 본 발명이 이에 한정되는 것은 아니다. 통신부(500)는 로봇이 취득한 정보를 외부의 서버 또는 다른 로봇들에게 전송하거나 혹은 전술한 서버 또는 다른 로봇으로부터 정보를 수신하는 기능을 제공한다. The
특히, 통신부(500)는 현재 날씨에 대한 정보를 외부의 장치들로부터 수신하여 햇빛과 같은 강한 외부광이 발생하는 조건인지를 확인하여 이를 로봇 제어부(900)에게 제공하고 로봇 제어부(900)는 외부광의 발생 조건을 뎁스 센싱 모듈(100)에게 제공하여 뎁스 정보의 필터링에 적용할 수 있도록 한다. In particular, the
로봇(1000)의 로봇 제어부(900)는 맵 저장부(200)의 맵을 생성하거나 업데이트할 수 있다. 또한, 로봇 제어부(900)는 주행 과정에서 뎁스 센싱 모듈(100)이 제공하는 센싱 정보와 객체 센싱 모듈(190)이 제공하는 센싱 정보를 취합하여 로봇의 이동 경로를 제어할 수 있다. 즉, 로봇 제어부(900)는 뎁스 센싱 모듈(100) 및 객체 센싱 모듈(190)의 센싱된 결과에 기반하여 로봇 주변의 객체를 확인하여 로봇(1000)의 이동 경로를 제어한다. The
또한, 광정보 제공부(140)가 뎁스 센싱 모듈(100)과 독립하여 배치될 수 있으며, 이 과정에서 로봇 제어부(900)는 이동 과정에서 취득한 외부광의 위치 정보를 광정보 제공부(140)에 저장할 수 있다. 또한, 로봇의 이동 공간에 대한 맵을 생성하는 과정에서 맵 저장부(141)에 이동 공간의 벽 또는 바닥의 빛의 반사 또는 투과에 대한 속성이 변경된 것으로 확인되면 맵 저장부(141)의 고정 객체의 속성도 변경할 수 있다.In addition, the optical
한편, 로봇 제어부(900)는 뎁스 센싱 모듈(100)이 생성한 뎁스 정보에 대응하는 영역에서 객체 센싱 모듈(190)이 센싱한 객체의 거리 정보를 뎁스 센싱 모듈(100)에게 제공할 수 있다. 뎁스 센싱 모듈(100)의 제어부(150)는 로봇 제어부(900)를 통해제공된 객체의 거리 정보가 뎁스 정보의 일부 또는 전부와 불일치하는 경우에 뎁스 정보에서 불일치하는 영역에 대한 정보를 센싱 데이터 필터링부(120)에게 제공하여 센싱 데이터 필터링부(120)가 필터링할 영역을 보다 정확하게 식별할 수 있도록 한다. The
도 9는 본 발명의 일 실시예에 의한 뎁스 센싱 과정을 보여주는 도면이다. 도 9는 전술한 광정보 제공부의 맵 저장부에 저장된 정보를 이용하여 로봇 또는 뎁스 센싱 모듈의 현재 위치가 햇빛의 영향을 받는 위치인지를 판단하고, 이에 따라 뎁스 센싱 모듈의 뎁스 카메라부가 촬영한 뎁스 정보에서 각 뎁스 셀들의 뎁스 값(입력 데이터)을 분석하여 필터링하는 과정을 보여준다.9 is a diagram illustrating a depth sensing process according to an embodiment of the present invention. 9 is a view for explaining a case where the current position of the robot or the depth sensing module is determined to be a position affected by sunlight using the information stored in the map storage unit of the optical information providing unit described above, (Input data) of each depth cell is analyzed and filtered.
뎁스 카메라부(110)는 센싱된 뎁스 값으로 구성되는 뎁스 정보를 생성하여 저장부(130)에 저장한다(S31). 그리고 로봇의 현재 위치와 시간이 외부광, 특히 햇빛이나 강한 조명의 영향을 받는 구간인지를 확인한다(S32). 이는 뎁스 센싱 모듈(100) 또는 로봇(1000)을 구성하는 광정보 제공부(140)에 저장된 정보를 이용하여 확인할 수 있다. 확인 결과 외부광의 영향을 받는 구간인 경우에는 저장부(130)에 저장된 가장 최근의 5 프레임의 뎁스 데이터들, 즉 뎁스 값으로 구성된 뎁스 정보를 큐에 저장한다(S33). The
전술한 5 프레임이란 현재 시점을 기준으로 이전의 5번의 시점에서 촬영된 뎁스 정보들을 의미한다. 그리고 이전 프레임의 각 뎁스 셀의 뎁스 값들과 현재 확인된 뎁스 정보에서의 각 뎁스 셀의 뎁스 값들과 비교하여 실제 데이터인지 가비지 값인지를 확인하여 필터링할 것인지를 판단한다. 가비지 값인 경우, 해당 뎁스 정보는 제외시키고 새로이 뎁스 정보를 센싱하여 저장하도록 S31 단계를 진행한다. 한편, 가비지 값이 아닌 경우 해당 뎁스 데이터를 사용한다(S35). The above-mentioned five frames means the depth information photographed at the previous five times based on the current time point. Then, it compares the depth values of each depth cell of the previous frame with the depth values of each depth cell in the currently confirmed depth information, and determines whether to check whether the data is actual data or garbage value and filter it. If it is a garbage value, the process proceeds to step S31 so that the depth information is excluded and new depth information is sensed and stored. On the other hand, if the value is not the garbage value, the corresponding depth data is used (S35).
도 9의 S34 과정에서 가비지 값인 것으로 판단되면, 가비지 값에 대응하는 뎁스 셀의 뎁스 값을 새로이 산출할 수 있다. 예를 들어, 이전 5개의 프레임에 대응하는 5개의 뎁스 정보에서 특정 위치인 뎁스 셀의 뎁스 값이 지속하여 1씩 감소하다가 갑자기 1000이 감소한 경우 이는 가비지 값으로 판단할 수 있다. 다만, 가비지 값을 버리고 새로이 뎁스 정보를 산출하도록 S31 단계를 진행할 수도 있고, 가비지 값을 보정하여 뎁스 정보를 산출할 수도 있다. 예를 들어 도 3의 15c에서 가비지 값으로 확인된 경우 해당 셀의 뎁스 값을 이전 프레임의 뎁스 정보들(11, 12)를 기반으로 559로 변환할 수 있다. If it is determined in step S34 of FIG. 9 that the value is the garbage value, the depth value of the depth cell corresponding to the garbage value can be newly calculated. For example, if the depth value of the depth cell which is a specific position in the five depth information corresponding to the previous five frames continues to decrease by one but suddenly decreases by 1000, it can be judged as the garbage value. However, step S31 may be performed to discard the garbage value and newly calculate the depth information, or the depth information may be calculated by correcting the garbage value. For example, if the garbage value is identified as 15c in FIG. 3, the depth value of the corresponding cell can be converted into 559 based on the
도 10은 본 발명의 일 실시예에 의한 뎁스 정보를 뎁스 카메라부가 생성하여 이를 필터링하는 과정을 보여주는 도면이다. 41 내지 43은 뎁스 센싱 모듈(100) 또는 로봇(1000)이 이동하는 전면에 배치된 사물들의 형상이며, 프레임 별 전면의 사물의 형상을 보여준다. 51 내지 53은 이들 41 내지 43에 대응하여 생성된 뎁스 정보의 일부를 보여준다. 10 is a diagram illustrating a process of generating depth information according to an exemplary embodiment of the present invention and filtering the generated depth information. 41 to 43 are shapes of objects disposed on the front surface of the
뎁스 정보는 41 내지 43을 뎁스 셀로 분할하여 각 뎁스 셀 별로 뎁스 값을 포함하는데, 51 내지 53은 이 중에서 특정한 뎁스 셀들(41p, 41q, 42p, 42q, 43p, 43q)에 대한 뎁스 값을 보여준다. 뎁스 정보는 가로 150, 세로 100 크기로 뎁스 셀을 나누었으며, 41p, 42p, 43p는 각각의 41, 42, 43에서의 좌표가 (30, 75) 이며, 41q, 42q, 43q는 각각의 41, 42, 43에서의 좌표가 (75, 25) 이다. The depth information includes a depth value for each depth cell by dividing 41 to 43 into depth cells. 51 to 53 show depth values for
전체 뎁스 정보의 구성은 도 2 및 도 3에서 살펴본 바와 같이 각 뎁스 셀 별로 뎁스 값이 저장될 수 있는데, 설명의 편의를 위하여 도 10에서는 특정 셀들의 뎁스 값만을 표시한다. As shown in FIG. 2 and FIG. 3, the depth information may be stored for each depth cell. For convenience of explanation, only depth values of specific cells are displayed in FIG.
51에서 41p 및 41q의 뎁스 값은 각각 1530및 3500으로 센싱된다. 52에서 42p 및 42q의 뎁스 값은 각각 1480 및 3450으로 센싱된다. 42에서 햇빛(50)의 일부분이 유입되지만 뎁스 센싱에 영향을 미치지 않은 상태이다. The depth values of 41p and 41q are sensed at 1530 and 3500, respectively. The depth values of 52 to 42p and 42q are sensed at 1480 and 3450, respectively. A portion of the
그런데, 43에서 햇빛(50)이 전면에 등장하면서 53에 제시된 바와 같이 43p는 동일한 뎁스 셀(위치가 (30, 75)인 셀)의 뎁스 값인 1480과 비교할 때, 일정하게 50이 감소한 1430인데, 43q는 동일한 뎁스 셀(위치가 (75, 25)인 셀)의 뎁스 값인 3450과 비교할 때, 불규칙하게 0으로 센싱됨을 확인할 수 있다. 이는 뎁스 센싱 모듈이 센싱한 값이 햇빛(50)으로 인해 가비지 값이 입력됨을 의미한다. As shown in 53, when the
따라서, 센싱 데이터 필터링부(120)는 뎁스 값들 중에서 53의 43q와 같이 특정한 값에서 큰 변화가 발생하는 값을 필터링하고 제어부(150)는 필터링된 뎁스 정보(53)를 제거하거나 혹은 이전 뎁스 정보(51, 52)를 참조하여 새로운 뎁스 값(3400)을 가지는 뎁스 정보(54)를 생성하여 저장할 수 있다. Accordingly, the sensing
또한, 이 과정에서 로봇(1000)의 객체 센싱 모듈(190)이 센싱한 값에 기반하여 큰 변화가 발생한 뎁스 값을 가비지 값으로 하여 필터링할 지 아니면 새로운 객체가 센싱된 것으로 할 지 제어부(150)가 결정할 수 있다. 예를 들어, 갑자기 사물이 다가오는 경우가 있으므로, 객체 센싱 모듈(190)이 전방에 객체가 가까이 있는 것으로 센싱한 경우에는 센싱 데이터 필터링부(120)는 해당 뎁스 값을 필터링하지 않고 그대로 사용할 수 있다. 또는, 정확성을 위해 뎁스 카메라부(110)가 다시 뎁스 정보를 생성할 수 있다. In this case, the
도 10에서 살펴본 바와 같이 뎁스 센싱 모듈(100)이 뎁스 정보를 분석하는 과정을 정리하면 다음과 같다. As shown in FIG. 10, the process of analyzing the depth information by the
뎁스 카메라부(110) 앞에 아무 장애물도 존재하지 않음에도 햇빛의 영향을 받아 특정한 범위 내의 뎁스 값이 각 프레임의 뎁스 정보에서 뎁스 값이 프레임 간에 과도하게 변하여 특정 사물이 갑자기 센싱하거나 혹은 센싱한 사물이 사라지는 것으로 확인될 경우, 이러한 뎁스 정보를 필터링할 수 있다. Even if there is no obstacle in front of the
예를 들어, 전방부의 400~1000mm 사이의 특정 뎁스 셀의 뎁스 값이 2~3 프레임의 뎁스 정보에서 연속하여 검출되었다가 값자기 0의 값이 검출되는 상황이 반복될 수 있다. 특히, 똑같은 값이 연속해서 2~3 프레임의 뎁스 정보로 들어오는 것은 아니고 200, 700, 400, 0, 1000 등과 같이 뎁스 값이 선형적이지 않고 크게 증가 혹은 감소하는 경우에는 사물의 갑작스러운 등장으로 인한 뎁스 센싱이 아닌 외부광의 영향으로 뎁스 값이 변화하는 것으로 뎁스 센싱 모듈(100)이 확인하고 해당 뎁스 값을 필터링할 수 있다. For example, a situation where a depth value of a specific depth cell between 400 and 1000 mm in the front part is successively detected in depth information of 2 to 3 frames and a value self zero is detected can be repeated. In particular, if the same value does not arrive continuously as a depth information of 2 or 3 frames, but if the depth value is not linearly increased or decreased such as 200, 700, 400, 0, 1000 or the like, The
이 과정에서 사물이 실제로 전면에 배치되었는지를 확인하기 위해 객체 센싱 모듈(190)에서 센싱한 외부 객체들의 센싱 결과를 뎁스 센싱 모듈(100)이 참조할 수 있으며, 또한 광정보 제공부(140)에서 현재 위치에서의 외부광의 배치 또는 빛의 세기, 컨텍스트 정보 등을 추출하여 외부광이 존재할 수 있는 가능성에 기반하여 뎁스 값을 필터링할 수 있다. 또한, 광센싱부(111)가 외부의 광의 세기를 센싱하여 센싱한 광이 뎁스 센싱에 영향을 미치는 정도인 경우, 뎁스 값을 조정할 수 있다. In this process, the
도 10에서 맵 저장부(141)의 정보를 이용할 수 있는데, 도 6에서 특정한 공간의 벽의 재질의 반사도, 또는 창문의 배치로 인한 외부광의 투과도 등을 함께 반영하여 외부광이 센싱되는 위치인지, 혹은 반사된 외부광이 존재하는지를 확인할 수 있다. 또한, 앞서 표 1에서 살펴본 바와 같이 바닥의 빛의 반사도를 확인하고 조명의 위치를 맵 저장부(141a)에서 확인하여 빛의 영향을 뎁스 정보에서 제거하여 정확하게 뎁스 값을 산출할 수 있다. In FIG. 10, information of the
한편, 도 10에서 41 내지 43에서 특정한 뎁스 셀의 값의 변화를 확인하기 위해 뎁스 정보의 특정한 위치(x, y)를 참조할 수도 있으나, 본 발명의 다른 실시예에 의하면 41 내지 43에서 기준이 되는 지점이 있는 경우 이 지점에 대응한 상대 좌표를 구할 수 있다. 예를 들어 41의 원통기둥이 42, 43에서 점차적으로 접근하는 것으로 비전 센싱부(192)가 확인한 경우, 값이 급변하는 영역과 원통기둥과의 거리에 비례하여 뎁스 셀의 위치를 확인할 수 있다. Although it is possible to refer to the specific position (x, y) of the depth information in order to check the change of the value of the specific depth cell in FIG. 10 through 41 to 43, according to another embodiment of the present invention, The relative coordinates corresponding to this point can be obtained. For example, when the
일 실시예로 42p의 위치가 (30, 75) 이지만 42에서는 해당 지점에 (28, 73)이 될 수 있으며, 뎁스 셀의 변화의 보다 정확한 추이를 분석하기 위해 비전 센싱부(192)가 센싱한 사물의 정보를 이용할 수 있다. In one embodiment, the position of 42p is (30,75), but the position of 42p may be (28,73) at the corresponding point. In order to analyze a more accurate transition of the depth cell, the
도 11 및 도 12는 본 발명의 일 실시예에 의한 뎁스 센싱 모듈이 외부광의 영향을 반영하여 객체의 뎁스 값을 센싱하는 과정을 보여주는 도면이다. 독립적으로 동작하는 뎁스 센싱 모듈(100) 또는 이러한 뎁스 센싱 모듈(100)이 장착된 로봇(1000)에서 모두 구현 가능하다. 11 and 12 are views illustrating a process of sensing a depth value of an object by reflecting the influence of external light in a depth sensing module according to an exemplary embodiment of the present invention. It can be implemented in the
도 11에서 뎁스 센싱 모듈(100)의 뎁스 카메라부(110)가 제1시점에서 센싱한 객체의 제1뎁스 정보를 저장부(130)에 저장한다(S61). 그리고 뎁스 카메라부(110)가 제2시점에서 센싱한 객체의 제2뎁스 정보를 저장부(130)에 저장한다(S62). 제1시점이전에도 다수의 뎁스 정보가 저장될 수 있다. In FIG. 11, the
도 12에서 살펴보면, 다수의 뎁스 셀들로 구성되며 매 시점 별로, 즉 프레임 별로 생성된 뎁스 정보들이 n개 저장부(130)에 저장될 수 있다. 저장부(130)에 저장된 뎁스 정보들의 동일한 위치의 뎁스 셀의 뎁스 값들은 짧은 시간 내에 뎁스 센싱 모듈(100)이 이동한 상태에서 뎁스 카메라부(110)가 센싱한 것이므로, 각 뎁스 셀 별로 뎁스 값의 변화가 크지 않다. Referring to FIG. 12, the depth information generated by each view point, i.e., each frame, which is composed of a plurality of depth cells, may be stored in
이는 뎁스 센싱 모듈(100) 또는 로봇(1000)의 이동 속도, 외부 사물의 이동 속도, 그리고 뎁스 카메라부(110)가 센싱하는 간격(프레임 별 시간 간격)에 따라 달라질 수 있다. 따라서, 뎁스 센싱 모듈(100)의 제어부(150) 또는 센싱 데이터 필터링부(120)는 이동 속도와 센싱 간격을 기준으로 뎁스 값의 최대 변동기준값을 설정할 수 있다. 일 실시예로, 뎁스 센싱 모듈(100)의 이동 속도가 500mm/s이고, 외부 사물의 최대 이동 가능한 속도가 1000mm/s일 때, 1초에 약 1500mm의 거리차가 발생할 수 있다. This may vary depending on the moving speed of the
한편, 뎁스 카메라부(110)가 센싱하는 간격이 1초에 30 프레임인 경우를 가정 시 매 프레임 별로 생성되는 뎁스 정보들은 최대 50mm (1500mm / 30초)의 뎁스 값의 차이가 발생할 수 있다. 따라서, 뎁스 값의 최대 변동기준값으로 50 mm 혹은 이 보다 조금 더 큰 값(100 mm)로 설정한 후, 도 12에 누적된 뎁스 정보에서 특정 뎁스 셀의 뎁스 값이 이전 프레임과 비교하여 뎁스 값의 최대 변동기준값 보다 큰 경우 뎁스 값이 가비지 값인지를 센싱 데이터 필터링부(120)가 확인할 수 있다.On the other hand, assuming that the interval at which the
다시 도 11로 돌아와서, 뎁스 센싱 모듈(100)의 센싱 데이터 필터링부(120)가 생성된 제1뎁스 정보 및 상기 제2뎁스 정보를 비교하여 상기 제2뎁스 정보에서 필터링할 영역을 식별한다(S63). 식별하는 방식으로는, 센싱 데이터 필터링부(120)가 앞서 뎁스 값의 변동이 일정한 기준 값(최대 변동 기준값)보다 큰 경우 그러한 뎁스 값들에 대응하는 뎁스 셀들을 필터링할 영역으로 식별한다. 11, the sensing
혹은 앞서 외부광의 특성을 광정보 제공부(140)를 통해 확인하거나 광센싱부(111)가 외부광의 세기를 센싱한 결과, 혹은 로봇(1000)의 객체 센싱 모듈(190)이 센싱한 외부 객체의 존재 혹은 거리 등의 정보에 기반하여 해당 뎁스 셀의 뎁스 값이 가비지 값으로 판단될 경우, 센싱 데이터 필터링부(120)는 하나 이상의 뎁스 셀로 구성되는 필터링할 영역을 식별한다. Alternatively, the external sensing unit may be configured to detect the external light characteristic through the optical
필터링할 영역은 제2뎁스 정보 내의 하나 이상의 뎁스 셀이 될 수 있으며, 제어부(150)는 제2뎁스 정보에서 상기 필터링 영역의 뎁스 값을 조정한다(S64). The area to be filtered may be one or more depth cells in the second depth information, and the
조정하는 것의 일 실시예는 제2뎁스 정보를 저장부(130)에서 제거하고 새로이 새로운 시점에서 뎁스 정보를 생성하는 것을 일 실시예로 한다. One embodiment of the adjustment is one in which the second depth information is removed from the
다음으로 조정하는 것의 다른 실시예로, 제2뎁스 정보에서 상기 필터링 영역의 뎁스 값을 변경할 수 있다. 이는 제1뎁스 정보를 참조하거나 혹은 그 외에 시간적으로 인접한 다른 뎁스 정보들을 참조하여 해당 필터링 영역을 구성하는 뎁스 셀들의 뎁스 값을 변경할 수 있다. 앞서 도 10에서 53과 같이 센싱된 뎁스 정보를 54와 같이 변경하는 것을 일 실시예로 한다. As another embodiment of the next adjustment, the depth value of the filtering area may be changed in the second depth information. This can change the depth value of the depth cells constituting the filtering region by referring to the first depth information or other temporally adjacent depth information. The depth information sensed as 53 in FIG. 10 is changed to 54 as an embodiment.
도 13은 본 발명의 일 실시예에 의한 뎁스 값을 변경하는 과정을 보여주는 도면이다. 13 is a flowchart illustrating a process of changing a depth value according to an exemplary embodiment of the present invention.
도 12에서 살펴본 바와 같이 제1-1뎁스 정보 내지 제1-4뎁스 정보의 동일한 위치(X1, Y1)의 뎁스 셀은 각각 D11 내지 D14의 값을 가진다. D11 내지 D4의 값의 변화 추이는 감소하는 형태이며, D11-D12, D12-D13, D13-D14의 차이는 미리 설정된 오차 범위 내이다. As shown in FIG. 12, the depth cells at the same positions (X1, Y1) of the 1-1th-depth information to the 1-4th depth information have values of D11 to D14, respectively. D11 to D4 changes in a decreasing manner, and the difference between D11-D12, D12-D13 and D13-D14 is within a predetermined error range.
그런데 제2뎁스 정보에서 센싱된 뎁스 값(D2)이 0 또는 0에 근접하거나 이전의 D11 내지 D14의 변화 방향에서 벗어난 값으로 설정되면, 센싱 데이터 필터링부(120)는 가비지 값으로 판단한다. 그리고, 이전에 센싱된 뎁스 정보 혹은 이후 센싱된 뎁스 정보를 기준으로 제2뎁스 정보의 동일한 위치(X1, Y1)의 뎁스 셀의 뎁스 값을 D2'와 같이 설정할 수 있다. However, if the depth value D2 sensed in the second depth information is close to 0 or 0 or set to a value deviating from the previous D11 to D14 change direction, the sensing
D2를 산출하기 위해서 제어부는 이전 뎁스 정보를 그대로 이용하여 D2를 산출하거나 또는 이전 뎁스 정보에 가중치를 적용하여 생성된 D2'를 산출하여 D2'값이 제2뎁스 정보의 뎁스 셀인 DCell(X1, Y1)의 뎁스 값으로 설정할 수 있다. 즉, 필터링 영역 내의 뎁스 셀들에 대해 각각 뎁스 값을 새로이 계산에 따라 산출하여 새로운 뎁스 정보를 생성하고 이를 제어부(150)가 저장부에 저장한다. In order to calculate D2, the controller calculates D2 using the previous depth information as it is or calculates D2 'generated by applying a weight to the previous depth information, and the value of D2' is the depth cell of the second depth information DCell (X1, Y1 Can be set to the depth value. That is, a depth value is newly calculated for each depth cell in the filtering area to generate new depth information, and the
정리하면, 다음과 같다. 제어부(150)가 제1뎁스 정보(또는 제1-1 내지 제1-4 뎁스 정보)를 제2뎁스 정보의 필터링할 영역에 적용하여 새로운 뎁스 정보를 생성할 수 있다. The following is summarized. The
또는 제어부(150)는 제1뎁스 정보(또는 제1-1 내지 제1-4 뎁스 정보)에 가중치를 적용하여 생성된 뎁스 정보를 제2시점의 제2뎁스 정보의 필터링할 영역에 적용하여 새로운 뎁스 정보를 생성할 수 있다. 그리고 제어부(150)는 저장부(130)에 제2시점에서의 뎁스 정보로 새로이 생성한 뎁스 정보를 저장할 수 있다. 전술한 가중치의 적용 과정에서는 로봇의 이동 속도를 반영할 수 있다. Alternatively, the
도 14는 본 발명의 일 실시예에 의한 뎁스 정보를 새로이 생성하여 저장하는 실시예를 보여주는 도면이다. 뎁스 센싱 모듈(100)이 시간순으로 10p, 10q, 10s과 같이 뎁스 정보를 생성한다. 이 과정에서 가장 최근인 10s의 뎁스 정보 중에서 이전 뎁스 정보의 값의 변화와 차이가 발생하는 영역(10s의 DCell1, DCell2 영역)을 필터링 영역으로 식별한다. 일 실시예로 센싱 데이터 필터링부(120)는 제1뎁스 정보(10p 및 10q)의 제1뎁스 셀(Dcell1 또는 DCell2)의 제1뎁스 값이 10 또는 9씩 감소한 것을 확인한다. FIG. 14 is a diagram illustrating an example of newly generating and storing depth information according to an embodiment of the present invention. The
또한, 10p 및 10q의 제1뎁스 셀(Dcell1 또는 DCell2)에 대응하는 제2뎁스 정보(10s)의 제2뎁스 셀(Dcell1 또는 DCell2)의 제2뎁스 값이 각각 "0"을 가지므로 센싱 데이터 필터링부(120)는 이전의 값들과 차이가 발생함을 비교하여 식별할 수 있다.Since the second depth values of the second depth cell (Dcell1 or DCell2) of the second depth information (10s) corresponding to the first depth cell (Dcell1 or DCell2) of 10p and 10q are respectively "0" The
보다 상세히, 센싱 데이터 필터링부(120)는 DCell1의 경우 뎁스 값이 90, 80, 0으로 변화한 것이므로 마지막 "0"으로 센싱된 뎁스 값이 가비지 값인 것으로 확인할 수 있다. 마찬가지로 센싱 데이터 필터링부(120)는 DCell2의 경우 뎁스 값이 80, 71, 0으로 변화한 것이므로 마지막 "0"으로 센싱된 뎁스 값이 가비지 값인 것으로 확인할 수 있다. 그 결과, 센싱 데이터 필터링부(120)는 새로운 뎁스 정보(10s')를 생성할 수 있는데, 필터링 영역(Filtering Area)를 구성하는 뎁스 셀들의 값이 각각 70 및 62로 변경되었음을 확인할 수 있다. 이러한 뎁스 값의 변경은 10p, 10q의 변화 과정을 반영한 것이다. More specifically, the sensing
물론, 센싱 데이터 필터링부(120)는 직전의 뎁스 정보만 이용할 수도 있다. 예를 들어 10q를 참조하고 외부광의 영향이 없을 경우, 10q와 10s 사이에 최대로 발생할 수 있는 뎁스 값의 차이가 20인 경우, 20 이상 차이가 발생한 뎁스 값을 가비지 값으로 설정하여 새로은 뎁스 값을 산출할 수 있다. Of course, the sensing
도 13 및 도 14에서는 뎁스 정보에서 동일한 X/Y 지점의 뎁스 셀의 뎁스 값의 변화에 기반하였으나, 본 발명이 이에 한정되는 것은 아니다. 예를 들어 객체 센싱 모듈(190)의 비전 센싱부(192)에서 촬영한 결과 사물들이 우측으로 이동하는 것으로 촬영될 경우, 이러한 변화를 반영하여 연관된 뎁스 셀의 뎁스 값을 비교할 수 있다. 13 and 14, the depth information is based on the variation of the depth value of the depth cell of the same X / Y point in the depth information, but the present invention is not limited thereto. For example, when the subject is photographed by the
일 실시예로, 제1뎁스 정보에서는 (1, 1)이 제1뎁스 셀이었으나, 제2뎁스 정보에서는 동일한 사물이 이동하여 (1, 2)로 이동한 것으로 확인되면 제2뎁스 셀은 (1, 2)가 될 수 있다. 이를 위해 비전 센싱부(192)가 센싱한 사물의 이동을 추적하여 연관된 뎁스 셀들을 분석할 수 있다. In one embodiment, if the first depth information indicates that (1, 1) is the first depth cell, but the second depth information indicates that the same object has moved and moved to (1, 2) , 2). For this purpose, the
정리하면 제1뎁스 정보의 제1뎁스 셀의 위치와 제2뎁스 정보의 제2뎁스 셀의 위치는 동일할 수도 있고 상이할 수도 있으며, 상이한 경우, 사물의 이동을 추적하여 동일한 사물로 파악한 정보에 기반하여 상이한 위치를 선별할 수 있다. In summary, the position of the first depth cell of the first depth information and the position of the second depth cell of the second depth information may be the same or different, and when they are different, the movement of the object is tracked, Different positions can be selected on the basis of the results.
도 15는 본 발명의 일 실시예에 의한 뎁스 값의 조정 과정을 보다 상세히 보여주는 도면이다. 도 11의 S63 및 S64 과정을 상술하며 도 14의 실시예를 참조한다. FIG. 15 is a detailed diagram illustrating a process of adjusting a depth value according to an embodiment of the present invention. Referring to FIG. The steps S63 and S64 of FIG. 11 will be described in detail and the embodiment of FIG. 14 will be described.
센싱 데이터 필터링부(120)가 제1시점에서 센싱한 객체의 제1뎁스 정보의 제1뎁스 셀의 제1뎁스 값 D1(도 14에서 D11 내지 D14를 일 실시예로 함)을 산출한다(S631). 그리고 센싱 데이터 필터링부(120)가 제2시점에서 센싱한 객체의 제2뎁스 정보의 제2뎁스 셀의 제2뎁스 값 D2를 산출한다(S632). 센싱 데이터 필터링부(120)는 D1과 D2의 차이가 설정된 기준 이상인 경우(S633) S635와 같이 필터링을 수행한다. 차이가 설정된 기준 이하인 경우에는 D2를 포함하는 제2뎁스 정보를 저장부에 저장한다(S649).The sensing
S633에서 D1과 D2의 차이가 설정된 기준 이상인지를 판단하는 일 실시예로, D1과 D2의 차이가 제1시점에서의 뎁스 센싱 모듈(100)의 위치와 제2시점에서의 뎁스 센싱 모듈의 위치 사이의 차이보다 큰 경우 또는 앞서 사물의 이동 속도까지 고려하여 최대 변동기준값과 같이 미리 설정된 기준 보다 큰 경우에 D2가 가비지 값을 가질 가능성이 큰 것으로 확인한다. In step S633, it is determined whether the difference between D1 and D2 is equal to or greater than a preset reference. The difference between D1 and D2 is determined based on the position of the
한편, S641의 일 실시예로 제어부(150)는 새로운 D2'를 산출하기 위해 앞서 제1시점 및 상기 제2시점에서의 뎁스 센싱 모듈의 위치 차이에 기반하여 D1을 D2'(새로운 뎁스 값)를 생성한다. 위치 차이에 기반한다는 것은 이전에 누적된 뎁스 값들의 변화추이를 적용하거나 혹은 뎁스 센싱 모듈이 두 시점 사이에 이동한 거리 정보를 반영하는 것을 의미한다. 그리고 제어부(150)는 새로이 생성한 D2'를 제2뎁스 셀의 뎁스 값으로 설정한다. In order to calculate a new D2 ', the
도 16은 본 발명의 일 실시예에 의한 센싱 데이터 필터링부가 필터링 영역을 식별하는 과정에서 외부광의 특성 정보를 이용하는 과정을 보여주는 도면이다. 전술한 바와 같이 광정보 제공부(140)는 맵 저장부(141), 그리고 광원주기정보부(145), 컨텍스트부(147)를 포함하며, 센싱 데이터 필터링부(120)는 현재 위치에서의 빛의 영향을 분석하여 필터링 영역을 식별할 수 있다. FIG. 16 is a diagram illustrating a process of using external light characteristic information in a process of identifying a filtering region by the sensing data filtering unit according to an exemplary embodiment of the present invention. As described above, the optical
제어부(150)는 광정보 제공부(140)에 저장된 상기 외부광의 특성 정보를 추출한다(S71). 뎁스 센싱 모듈(100) 또는 로봇(1000)의 현재 위치에서 주변에 조명이 있는지를 맵 저장부(141)에서 확인하는 것을 일 실시예로 한다. 또한 뎁스 센싱 모듈(100)의 전방에 창과 같이 외부의 빛을 투과하는 재질의 고정 객체가 있는지를 맵 저장부(141)에서 확인할 수 있다. The
또한, 보다 정밀하게는 조명 또는 햇빛과 같은 외부광이 현재 발생하고 있는지를 제어부(150)가 광원주기정보부(145)와 컨텍스트부(147)를 통해 확인할 수 있다. 뿐만 아니라 광센싱부(111)를 이용하여 주변에 강한 외부광이 존재하는지를 확인할 수 있다. 확인 결과, 제어부(150)는 외부광이 존재하는지에 대한 정보 또는 외부광의 세기에 대한 정보를 산출할 수 있으며, 외부광의 세기에는 바닥 혹은 벽의 재질의 반사도까지 반영하여 제어부(150)가 산출할 수 있다. More specifically, the
즉, 높은 조도의 조명이 천장에 배치되어도 바닥의 빛 반사도가 매우 낮은 경우라면 바닥 쪽 방향으로는 외부광에 의한 뎁스 정보의 영향이 낮을 것이므로, 제어부(150)는 외부광의 발생 가능성을 낮추어서 센싱 데이터 필터링부(120)에 제공할 수 있다. In other words, even if the illuminance of high illuminance is placed on the ceiling, the influence of the depth information due to the external light is low in the bottom direction if the light reflectance of the floor is very low. Therefore, the
반면, 낮은 조도의 조명이 천장에 배치되어도 바닥의 빛 반사도가 매우 높은 경우라면, 바닥쪽 방향에 외부광에 의한 뎁스 정보의 영향이 높을 것이므로 제어부(150)는 외부광의 발생 가능성을 높여서 센싱 데이터 필터링부(120)에 제공할 수 있다. 따라서, 도 16과 같은 과정에서 외부광의 특성 정보를 반영하여 센싱 데이터 필터링부(120)는 외부광에 의한 필터링 영역을 식별할 수 있다. On the other hand, if the low-illuminance illumination is placed on the ceiling and the light reflectivity of the floor is very high, the influence of the depth information due to the external light will be high in the bottom direction. Therefore, the
도 17은 본 발명의 일 실시예에 의한 로봇의 이동 과정에서 센싱된 외부광 정보들을 업데이트하는 과정을 보여주는 도면이다. 업데이트는 기존에 저장된 외부광의 특성 정보를 변경하거나, 혹은 새로이 외부광 특성 정보를 추가하거나, 혹은 기저장된 외부광 특성 정보를 삭제하는 작업을 모두 포함한다. FIG. 17 is a diagram illustrating a process of updating sensed external light information in a moving process of a robot according to an exemplary embodiment of the present invention. Referring to FIG. The update includes both operations of changing the property information of the external light stored in advance, adding new external property information, or deleting the previously stored external property information.
뎁스 센싱 모듈(100) 또는 로봇(1000)은 광센싱부(111)를 포함한다. 광센싱부(111)는 뎁스 센싱 모듈(100)과 독립하여 로봇(1000)의 구성 요소가 될 수 있다. The
로봇 제어부(900)는 로봇(1000)의 이동 과정에서 광센싱부(111)가 센싱한 외부광의 세기 또는 외부광의 온오프 시점이 광정보 제공부(140)에 저장된 외부광의 특성 정보를 비교한다(S81). 비교한 결과 상이한 경우(S82) 광정보 제공부(140)에 외부광의 세기 또는 온오프 시점에 대한 정보를 변경하여 저장한다(S83). The
본 발명의 다른 실시예에서 S82에서 상이한 경우에 무조건 광정보 제공부(140)에 센싱된 외부광의 특성 정보를 저장하는 방안 대신에 로봇 제어부(900)는 임시로 실시간 센싱된 외부광의 특성 정보를 저장한 후, 광정보 제공부(140)에 변경하여 저장할 만큼 충분히 규칙성을 가지는 것으로 데이터가 누적된 경우에 임시로 저장된 외부광의 특성 정보를 광정보 제공부(140)에 저장할 수 있다. Instead of storing the characteristic information of the external light sensed by the unconditional optical
본 발명의 실시예들을 적용할 경우, 뎁스 센싱 모듈(100)의 뎁스 카메라부(110)를 구성하는 센서들, 예를 들어 적외선(IR) 센서가 실외에서 사용하거나 햇빛 또는 조명이 많이 유입되는 공간에서 사용되거나 혹은 햇빛이 반사되는 환경에서 뎁스 값을 왜곡하여 센싱하는 경우에 이를 필터링하여 정상적인 뎁스 정보를 산출할 수 있도록 한다. When the embodiments of the present invention are applied, the sensors constituting the
특히, 공항, 학교, 병원, 고속버스 터미널, 기차역 등과 같이 개방된 대면적에는 창문이 많고 조명 또한 다수 배치되므로, 빛이 반사 또는 투과되어 뎁스 카메라부(110)로 빛들이 들어와 영향을 주는 경우가 많다. 이러한 환경에서 본 발명을 적용할 경우 뎁스 카메라(110)가 영향을 받는 뎁스 값들을 분석하여 빛에 의해 왜곡된 뎁스 값들을 필터링하여 가비지 값을 식별할 수 있다. In particular, since a large number of windows and many lights are disposed in an open large area such as an airport, a school, a hospital, a high-speed bus terminal, a train station, etc., light is reflected or transmitted to affect the
특히, 본 발명의 실시예에 의한 광정보 제공부(140)은 시간 및 장소, 그리고 컨텍스트 별로 조명이나 햇빛 등 외부광의 발생 여부에 대한 정보를 제공하므로, 뎁스 값을 필터링할 것인지 그대로 사용할 것인지를 외부광의 상태에 적합하게 선택할 수 있다. Particularly, since the optical
본 발명을 적용할 경우, 로봇이나 뎁스 센싱 모듈은 산출된 뎁스 정보에서 실제 장애물이나 사람 등 로봇이나 뎁스 센싱 모듈이 회피해야 하는 대상과 외부광으로 인한 왜곡된 정보를 구분할 수 있다. 특히, 공항, 학교, 병원, 터미널, 기차역, 복합몰 등과 같은 넓은 면적의 경우 모든 장소에서 로봇이 햇빛의 영향을 받는 것은 아니기 때문에 광정보 제공부(140)에 저장된 전체 맵에 기반하여 현재 로봇의 위치와 시간을 분석하여 로봇이 햇빛이나 강한 조명과 같이 외부광의 영향을 받는 구간에서만 필터링 알고리즘을 적용하여 효율적으로 로봇이 운용될 수 있도록 제어할 수 있다. In the case of applying the present invention, the robot or the depth sensing module can distinguish the object to be avoided by the robot or the depth sensing module, such as a real obstacle or a human, from distorted information due to external light, from the calculated depth information. Particularly, in a wide area such as an airport, a school, a hospital, a terminal, a train station, a complex mall, etc., since robots are not affected by sunlight at all places, By analyzing the position and time, it is possible to control the robot to operate efficiently by applying the filtering algorithm only in the section where the robot is affected by the external light such as sunlight or strong illumination.
필터링 과정에서 이전 프레임에서 누적한 뎁스 정보들과 비교하는 과정에서 지연이 발생할 수 있는데, 이 과정에서 로봇의 현재 위치와 현재 위치에서의 외부광의 영향에 대한 정보를 이용하여 필터링을 매순간 하지 않고 일정한 공간에서만 수행하여 데이터 처리 속도를 높일 수 있다. 또한, 광센싱부(111)를 이용하여 외부광이 강한 경우와 그렇지 않은 경우에 대한 상황 정보에 기반하여 필터링을 적용할 수 있다.In the filtering process, a delay may occur in the process of comparing with the depth information accumulated in the previous frame. In this process, using the information of the influence of the external light at the current position and the current position of the robot, It is possible to increase the data processing speed. Further, the
도 17에서 살펴본 바와 같이 로봇(1000)이 동일한 공간을 반복하여 주행하게 될 경우, 외부광의 발생 시점 혹은 발생 상황에 대한 정보를 누적하여 저장할 수 있다. As shown in FIG. 17, when the
특히, 빛이 반사되는 경우에 데이터로 인식되는 것을 필터링하기 위해 도 6에서 살펴본 바와 같이 조명의 위치, 창문의 위치 및 벽과 바닥의 빛 반사 정도에 대한 정보를 유지하여 외부광으로 인해 데이터가 왜곡될 가능성을 산출하여 이에 기반하여 필터링하거나 혹은 필터링 동작을 수행하지 않을 수 있다. In particular, as shown in FIG. 6, in order to filter what is recognized as data when light is reflected, information about the position of the light, the position of the window, and the degree of light reflection on the wall and the floor is maintained, It is possible to calculate the likelihood to be filtered based on this, or to perform no filtering operation.
또한, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니며, 본 발명의 목적 범위 내에서 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 반도체 기록소자를 포함하는 저장매체를 포함한다. 또한 본 발명의 실시예를 구현하는 컴퓨터 프로그램은 외부의 장치를 통하여 실시간으로 전송되는 프로그램 모듈을 포함한다. In addition, it is to be understood that the present invention is not necessarily limited to these embodiments, and that all the elements within the scope of the present invention Or may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. The codes and code segments constituting the computer program may be easily deduced by those skilled in the art. Such a computer program can be stored in a computer-readable storage medium, readable and executed by a computer, thereby realizing an embodiment of the present invention. The storage medium of the computer program includes a magnetic recording medium, an optical recording medium, and a storage medium including a semiconductor recording element. Also, a computer program embodying the present invention includes a program module that is transmitted in real time through an external device.
이상에서는 본 발명의 실시예를 중심으로 설명하였지만, 통상의 기술자의 수준에서 다양한 변경이나 변형을 가할 수 있다. 따라서, 이러한 변경과 변형이 본 발명의 범위를 벗어나지 않는 한 본 발명의 범주 내에 포함되는 것으로 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. It is therefore to be understood that such changes and modifications are intended to be included within the scope of the present invention unless they depart from the scope of the present invention.
100: 뎁스 센싱 모듈
110: 뎁스 카메라부
120: 센싱 데이터 필터링부
140: 광정보 제공부
141: 맵 저장부
145: 광원주기정보부
147: 컨텍스트부
190: 객체 센싱 모듈
191: 라이다 센싱부
192: 비전 센싱부
195: 센싱데이터분석부
300: 이동부
400: 기능부
500: 통신부
900: 로봇 제어부
1000: 로봇100: Depth sensing module 110: Depth camera section
120: Sensing data filtering unit 140: Optical information providing unit
141: map storage unit 145: light source period information unit
147: context unit 190: object sensing module
191: Lada sensing part 192: Vision sensing part
195: Sensing data analysis unit 300:
400: function unit 500: communication unit
900: robot control unit 1000: robot
Claims (15)
상기 뎁스 카메라부가 제2시점에서 센싱한 객체의 제2뎁스 정보를 저장부에 저장하는 단계;
뎁스 센싱 모듈의 센싱 데이터 필터링부가 상기 생성된 제1뎁스 정보 및 상기 제2뎁스 정보를 비교하여 상기 제2뎁스 정보에서 필터링할 영역을 식별하는 단계; 및
뎁스 센싱 모듈의 제어부가 상기 제2뎁스 정보에서 상기 필터링 영역의 뎁스 값을 조정하는 단계를 포함하는, 외부광을 반영하여 객체의 뎁스를 센싱하는 방법.
Storing the first depth information of the object sensed at the first viewpoint by the depth camera unit of the depth sensing module in a storage unit;
Storing the second depth information of the object sensed at the second viewpoint by the depth camera unit in a storage unit;
The sensing data filtering unit of the depth sensing module compares the generated first depth information and the second depth information to identify an area to be filtered in the second depth information; And
Wherein the controller of the depth sensing module adjusts the depth value of the filtering area in the second depth information.
상기 뎁스 값을 변경하는 단계는
상기 제어부가 상기 제1뎁스 정보에 가중치를 적용하여 생성된 제3뎁스 정보 또는 상기 제1뎁스 정보 중 어느 하나를 상기 제2 뎁스 정보의 상기 필터링할 영역에 적용하여 제4뎁스 정보를 생성하는 단계; 및
상기 제어부가 상기 저장부에 상기 제2시점에서의 뎁스 정보로 상기 제4뎁스 정보를 저장하는 단계를 포함하는, 외부광을 반영하여 객체의 뎁스를 센싱하는 방법.
The method according to claim 1,
The step of changing the depth value
Generating the fourth depth information by applying any one of the third depth information or the first depth information generated by applying the weight to the first depth information to the area to be filtered of the second depth information, ; And
Wherein the control unit stores the fourth depth information in the storage unit as depth information at the second time point, wherein the depth information is reflected by the external light.
상기 식별하는 단계는 상기 센싱 데이터 필터링부가 상기 제1뎁스 정보의 제1뎁스 셀의 제1뎁스 값과 상기 제1뎁스 셀에 대응하는 상기 제2뎁스 정보의 제2뎁스 셀의 제2뎁스 값을 비교하여 필터링할 영역을 식별하는 단계인, 외부광을 반영하여 객체의 뎁스를 센싱하는 방법.
The method according to claim 1,
The sensing data filtering unit may be configured to detect the first depth value of the first depth cell of the first depth information and the second depth value of the second depth cell of the second depth information corresponding to the first depth cell, Identifying a region to be compared and filtering, the external light reflecting the depth of the object.
상기 식별하는 단계는 상기 센싱 데이터 필터링부가 상기 제1뎁스 값과 상기 제2뎁스 값의 차이가 상기 제1시점에서의 상기 뎁스 센싱 모듈의 위치와 상기 제2시점에서의 상기 뎁스 센싱 모듈의 위치 사이의 차이보다 크거나 또는 미리 설정된 기준 보다 큰 경우에 상기 제2뎁스 셀의 상기 제2뎁스 값을 가비지 값으로 설정하는 단계를 더 포함하며,
상기 조정하는 단계는 상기 제어부가 상기 제1시점 및 상기 제2시점에서의 뎁스 센싱 모듈의 위치 차이에 기반하여 상기 제1뎁스 값을 제3뎁스 값을 생성하는 단계; 및
상기 제어부가 상기 제 3뎁스 값을 상기 제2뎁스 셀의 뎁스 값으로 설정하는 단계를 더 포함하는, 외부광을 반영하여 객체의 뎁스를 센싱하는 방법.
The method of claim 3,
The sensing data filtering unit may be configured such that the sensing data filtering unit determines that the difference between the first depth value and the second depth value is between the position of the depth sensing module at the first time point and the position of the depth sensing module at the second time point. And setting the second depth value of the second depth cell to a garbage value when the difference value is greater than or equal to a preset reference,
Wherein the adjusting step comprises: the controller generating the first depth value and the third depth value based on the position difference of the depth sensing module at the first viewpoint and the second viewpoint; And
Wherein the controller is further configured to set the third depth value to a depth value of the second depth cell, wherein the depth of the object is reflected by the external light.
상기 뎁스 센싱 모듈은 상기 뎁스 센싱 모듈의 위치에서 외부광의 특성 정보를 저장하는 광정보 제공부를 더 포함하며,
상기 식별하는 단계는 상기 제어부가 광정보 제공부에 저장된 상기 외부광의 특성 정보를 추출하는 단계;
상기 센싱 데이터 필터링부는 상기 추출된 외부광의 특성 정보를 반영하여 상기 필터링 영역을 식별하는 단계인, 외부광을 반영하여 객체의 뎁스를 센싱하는 방법.
The method according to claim 1,
The depth sensing module may further include an optical information providing unit for storing external light characteristic information at a position of the depth sensing module,
The identifying step may include extracting characteristic information of the external light stored in the optical information providing unit;
Wherein the sensing data filtering unit identifies the filtering region by reflecting characteristic information of the extracted external light.
제1시점에서 객체의 제1뎁스 정보 및 상기 제1시점과 시간적으로 선행하거나 또는 후행하는 제2시점에서 객체의 제2뎁스 정보를 생성하는 뎁스 카메라부;
상기 생성된 제1뎁스 정보 및 상기 제2뎁스 정보를 비교하여 상기 제2뎁스 정보에서 필터링할 영역을 식별하는 센싱 데이터 필터링부; 및
상기 제2뎁스 정보에서 상기 필터링 영역의 뎁스 값을 변경하거나 또는 상기 제2뎁스 정보를 상기 저장부에서 제거하는 제어부를 포함하는, 외부광을 반영하여 객체의 뎁스를 센싱하는 뎁스 센싱 모듈.
A storage unit for storing depth information;
A depth camera unit for generating first depth information of the object at a first time point and second depth information of the object at a second time point temporally preceding or following the first time point;
A sensing data filtering unit for comparing the generated first depth information and the second depth information to identify an area to be filtered in the second depth information; And
And a control unit for changing a depth value of the filtering area in the second depth information or removing the second depth information from the storage unit, the depth sensing module reflecting the external light.
상기 제어부는 상기 제1뎁스 정보에 가중치를 적용하여 생성된 제3뎁스 정보 또는 상기 제1뎁스 정보 중 어느 하나를 상기 제2 뎁스 정보의 상기 필터링할 영역에 적용하여 제4뎁스 정보를 생성하고 상기 저장부에 상기 제2시점에서의 뎁스 정보로 상기 제4뎁스 정보를 저장하는, 외부광을 반영하여 객체의 뎁스를 센싱하는 뎁스 센싱 모듈.
The method according to claim 6,
Wherein the controller generates the fourth depth information by applying any one of the third depth information or the first depth information generated by applying the weight to the first depth information to the area to be filtered of the second depth information, And stores the fourth depth information in the storage unit as depth information at the second viewpoint, the depth sensing module reflecting the external light and sensing the depth of the object.
상기 센싱 데이터 필터링부는
상기 제1뎁스 정보의 제1뎁스 셀의 제1뎁스 값과 상기 제1뎁스 셀에 대응하는 상기 제2뎁스 정보의 제2뎁스 셀의 제2뎁스 값을 비교하여 필터링할 영역을 식별하는, 외부광을 반영하여 객체의 뎁스를 센싱하는 뎁스 센싱 모듈.
The method according to claim 6,
The sensing data filtering unit
A first depth value of the first depth information of the first depth information is compared with a second depth value of a second depth cell of the second depth information corresponding to the first depth cell, A depth sensing module that senses the depth of an object by reflecting light.
상기 센싱 데이터 필터링부는 상기 제1뎁스 값과 상기 제2뎁스 값의 차이가 상기 제1시점에서의 상기 뎁스 센싱 모듈의 위치와 상기 제2시점에서의 상기 뎁스 센싱 모듈의 위치 사이의 차이보다 크거나 또는 미리 설정된 기준 보다 큰 경우에 상기 제2뎁스 셀의 상기 제2뎁스 값을 가비지 값으로 설정하며,
상기 제어부는 상기 제1시점 및 상기 제2시점에서의 뎁스 센싱 모듈의 위치 차이에 기반하여 상기 제1뎁스 값을 제3뎁스 값을 생성하여 상기 제 3뎁스 값을 상기 제2뎁스 셀의 뎁스 값으로 설정하는, 외부광을 반영하여 객체의 뎁스를 센싱하는 뎁스 센싱 모듈.
9. The method of claim 8,
Wherein the sensing data filtering unit is configured to determine whether the difference between the first depth value and the second depth value is greater than a difference between the position of the depth sensing module at the first time point and the position of the depth sensing module at the second time point Or sets the second depth value of the second depth cell to a garbage value when the second depth value is greater than a preset reference,
The controller generates the third depth value based on the position difference of the depth sensing module at the first viewpoint and the second viewpoint, and outputs the third depth value to the depth value of the second depth cell And a depth sensing module for sensing the depth of the object by reflecting external light.
상기 뎁스 센싱 모듈의 위치에서 외부광의 특성 정보를 저장하는 광정보 제공부를 더 포함하며,
상기 제어부가 광정보 제공부에 저장된 상기 외부광의 특성 정보를 추출하며,
상기 센싱 데이터 필터링부는 상기 추출된 외부광의 특성 정보를 반영하여 상기 필터링 영역을 식별하는, 외부광을 반영하여 객체의 뎁스를 센싱하는 뎁스 센싱 모듈.
The method according to claim 6,
And an optical information providing unit for storing the characteristic information of the external light at the position of the depth sensing module,
The control unit extracts characteristic information of the external light stored in the optical information providing unit,
The sensing data filtering unit reflects the extracted characteristic information of the external light and identifies the filtering area. The depth sensing module senses the depth of the object by reflecting external light.
상기 광정보 제공부는
상기 뎁스 센싱 모듈이 뎁스 정보를 생성하는 공간의 고정 객체의 위치 및 외부광의 반사 또는 투과 정보가 저장된 맵 저장부;
상기 외부광이 온오프하는 주기 정보가 저장된 광원주기정보부; 및
상기 외부광이 온오프하는 컨텍스트가 저장된 컨텍스트부를 포함하는, 외부광을 반영하여 객체의 뎁스를 센싱하는 뎁스 센싱 모듈.
11. The method of claim 10,
The optical information providing unit
A map storage unit in which the position of the fixed object in the space in which the depth sensing module generates the depth information and the reflection or transmission information of the external light are stored;
A light source period information unit storing period information on the external light on and off; And
And a context unit storing a context in which the external light is turned on and off, the depth sensing unit reflecting the external light and sensing the depth of the object.
외부에 배치된 객체를 센싱하는 객체 센싱 모듈;
로봇을 이동시키는 이동부; 및
상기 뎁스 센싱 모듈 및 상기 객체 센싱 모듈의 센싱된 결과에 기반하여 로봇 주변의 객체를 확인하여 상기 로봇의 이동 경로를 제어하는 로봇 제어부를 포함하는, 외부광을 반영하여 객체의 뎁스를 센싱하여 이동하는 로봇.
A depth camera unit for generating first depth information of an object at a first viewpoint and second depth information of an object at a second viewpoint temporally preceding or following the first viewpoint at a first viewpoint, A sensing data filtering unit for comparing the generated first depth information and the second depth information to identify an area to be filtered by the second depth information, and a controller for changing a depth value of the filtering area in the second depth information, A depth sensing module including a control unit for removing two-depth information from the storage unit;
An object sensing module for sensing an object disposed outside;
A moving unit for moving the robot; And
And a robot controller for controlling an object around the robot based on the sensed result of the depth sensing module and the object sensing module to control a movement path of the robot, robot.
상기 뎁스 센싱 모듈 또는 상기 로봇은 상기 뎁스 센싱 모듈의 위치에서 외부광의 특성 정보를 저장하는 광정보 제공부를 더 포함하며,
상기 뎁스 센싱 모듈의 상기 제어부가 광정보 제공부에 저장된 상기 외부광의 특성 정보를 추출하며, 상기 뎁스 센싱 모듈의 상기 센싱 데이터 필터링부는 상기 추출된 외부광의 특성 정보를 반영하여 상기 필터링 영역을 식별하는, 외부광을 반영하여 객체의 뎁스를 센싱하여 이동하는 로봇.
The method according to claim 1,
The depth sensing module or the robot further includes an optical information providing unit for storing external light characteristic information at a position of the depth sensing module,
Wherein the control unit of the depth sensing module extracts the characteristic information of the external light stored in the optical information providing unit and the sensing data filtering unit of the depth sensing module identifies the filtering area by reflecting characteristic information of the extracted external light, A robot that senses the depth of an object by reflecting external light and moves it.
상기 광정보 제공부는
상기 뎁스 센싱 모듈이 뎁스 정보를 생성하는 공간의 고정 객체의 위치 및 외부광의 반사 또는 투과 정보가 저장된 맵 저장부;
상기 외부광이 온오프하는 주기 정보가 저장된 광원주기정보부; 및
상기 외부광이 온오프하는 컨텍스트가 저장된 컨텍스트부를 포함하는, 외부광을 반영하여 객체의 뎁스를 센싱하여 이동하는 로봇.
14. The method of claim 13,
The optical information providing unit
A map storage unit in which the position of the fixed object in the space in which the depth sensing module generates the depth information and the reflection or transmission information of the external light are stored;
A light source period information unit storing period information on the external light on and off; And
And a context in which the context in which the external light is turned on and off is stored, the robot sensing the depth of the object by reflecting external light.
상기 뎁스 센싱 모듈 또는 상기 로봇은 광센싱부를 더 포함하며,
상기 로봇 제어부는 상기 로봇의 이동 과정에서 상기 광센싱부가 센싱한 외부광의 세기 또는 외부광의 온오프 시점이 상기 광정보 제공부에 저장된 외부광의 특성 정보와 상이한 경우 상기 광정보 제공부에 상기 외부광의 세기 또는 온오프 시점에 대한 정보를 변경하여 저장하는, 외부광을 반영하여 객체의 뎁스를 센싱하여 이동하는 로봇.
14. The method of claim 13,
The depth sensing module or the robot further includes an optical sensing unit,
When the intensity of the external light sensed by the optical sensing unit or the time point when the external light is turned on and off is different from the characteristic information of the external light stored in the optical information providing unit during the movement of the robot, the robot controller controls the intensity of the external light Or on and off points of the object, and stores the changed information.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170075055A KR20180136294A (en) | 2017-06-14 | 2017-06-14 | Method of sensing depth of object applying external light and and device implementing thereof |
PCT/KR2018/006113 WO2018230864A2 (en) | 2017-06-14 | 2018-05-29 | Method for sensing depth of object by considering external light and device implementing same |
US16/622,202 US11498228B2 (en) | 2017-06-14 | 2018-05-29 | Method for sensing depth of object by considering external light and device implementing same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170075055A KR20180136294A (en) | 2017-06-14 | 2017-06-14 | Method of sensing depth of object applying external light and and device implementing thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20180136294A true KR20180136294A (en) | 2018-12-24 |
Family
ID=65010336
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170075055A KR20180136294A (en) | 2017-06-14 | 2017-06-14 | Method of sensing depth of object applying external light and and device implementing thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20180136294A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022025658A1 (en) * | 2020-07-29 | 2022-02-03 | 주식회사 우아한형제들 | External light influence solution system for mobile robot and method therefor |
KR20220014861A (en) * | 2020-07-29 | 2022-02-07 | 주식회사 우아한형제들 | System and meyhod for resolving the influence of mobile robots from outside light |
WO2022102870A1 (en) * | 2020-11-16 | 2022-05-19 | 삼성전자주식회사 | Robot and control method therefor |
-
2017
- 2017-06-14 KR KR1020170075055A patent/KR20180136294A/en unknown
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022025658A1 (en) * | 2020-07-29 | 2022-02-03 | 주식회사 우아한형제들 | External light influence solution system for mobile robot and method therefor |
KR20220014861A (en) * | 2020-07-29 | 2022-02-07 | 주식회사 우아한형제들 | System and meyhod for resolving the influence of mobile robots from outside light |
WO2022102870A1 (en) * | 2020-11-16 | 2022-05-19 | 삼성전자주식회사 | Robot and control method therefor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11498228B2 (en) | Method for sensing depth of object by considering external light and device implementing same | |
US20220148321A1 (en) | System and process for detecting, tracking and counting human objects of interest | |
CN109951936B (en) | Illumination control system and method capable of being intelligently adjusted according to different application scenes | |
CN104050620B (en) | Body detection device | |
US11143749B2 (en) | Object detection system and method | |
US10783363B2 (en) | Method of creating map by identifying moving object, and robot implementing the method | |
KR20180136294A (en) | Method of sensing depth of object applying external light and and device implementing thereof | |
US20200089970A1 (en) | Method for identifying obstacle on driving ground and robot for implementing same | |
KR102478335B1 (en) | Image Analysis Method and Server Apparatus for Per-channel Optimization of Object Detection | |
GB2476869A (en) | System and method for tracking and counting objects near an entrance | |
CN101918980A (en) | Runway surveillance system and method | |
KR101624510B1 (en) | Multi-function monitoring and tracking system for crime and fire | |
US20210166006A1 (en) | Techniques for automatically identifying secondary objects in a stereo-optical counting system | |
CN105574468B (en) | Video flame detection method, device and system | |
EP2926296A2 (en) | Systems and methods to classify moving airplanes in airports | |
US10397497B1 (en) | Solar invariant imaging system for object detection | |
CN110909607B (en) | Passenger flow sensing device system in intelligent subway operation | |
KR102444568B1 (en) | Method of controlling image based on illuminance sensing and robot implementing thereof | |
KR20180112622A (en) | Method of configuring position based on identification of fixed object and moving object and robot implementing thereof | |
WO2018180494A1 (en) | Image monitoring system, image monitoring method, and image monitoring program | |
CN107506758A (en) | Painting Shop model recognizing method and system | |
JP6784254B2 (en) | Retained object detection system, retained object detection method and program | |
KR102107298B1 (en) | Image analysis apparatus and method | |
KR101927227B1 (en) | Visibility meter applying artificial intelligence | |
CN112837541B (en) | Intelligent traffic vehicle flow management method based on improved SSD |